المهمة المستحيلة..لماذا يعجز العالم عن لجم الذكاء الاصطناعي؟
13:12 - 05 نوفمبر 2023يبدو أن "قمة سلامة الذكاء الاصطناعي"، التي استضافتها المملكة المتحدة على مدى يومين الأسبوع الماضي في "بلتشلي بارك" ستدخل التاريخ، كونها المرة الأولى التي يجتمع فيها قادة العالم، لمناقشة الجهود المبذولة لكيفية كبح جماح تكنولوجيا الذكاء الاصطناعي التي ستغير العالم.
وقد تضمن جدول أعمال القمة، مناقشات حول مخاطر الذكاء الاصطناعي على سلامة المجتمع العالمي، واحتمال إساءة استخدام هذه التكنولوجيا من قبل الإرهابيين، لبناء أسلحة بيولوجية.
بالإضافة إلى ذلك، تم البحث بإمكانات تفوّق تكنولوجيا الذكاء الاصطناعي على البشر، وفقدان السيطرة عليها، وكيفية التخفيف من مخاطر هذا الأمر، مع التركيز على الأدوار التي يمكن أن يلعبها المجتمع العلمي وصناع السياسات.
وحضر "قمة سلامة الذكاء الاصطناعي" أكثر من 100 شخص، من ضمنهم قادة سياسيون من بريطانيا وأميركا والصين، ورؤساء أهم شركات الذكاء الاصطناعي وخبراء الأبحاث، ومجموعات من المجتمع المدني.
ومن الشخصيات البارزة التي حضرت القمة، رئيس الوزراء البريطاني ريتشي سوناك، نائبة الرئيس الأميركي كامالا هاريس، رئيسة الوزراء الإيطالية جيورجيا ميلوني، نائب وزير التكنولوجيا الصيني وتشاو هوي، رئيسة المفوضية الأوروبية أورسولا فون دير لاين، الأمين العام للأمم المتحدة أنطونيو غوتيريش، الرئيس التنفيذي لشركة X، إيلون ماسك، الرئيس التنفيذي لشركة OpenAI سام ألتمان والمديرون التنفيذيون من شركات الذكاء الاصطناعي الأخرى، بما في ذلك Meta وAnthropic وDeepmind التابعة لشركة Google.
الكشف عن "إعلان بلتشلي"!!
شهدت قمة "سلامة الذكاء الاصطناعي"، قيام 28 حكومة بينها الولايات المتحدة والصين، إلى جانب دول الاتحاد الأوروبي، بالتوقيع على ما يسمى بـ "إعلان بلتشلي" الذي يعترف بالحاجة إلى التعاون الدولي لتحقيق الشفافية والمساءلة في تطوير الذكاء الاصطناعي، وتخفيف المخاطر التي تشكلها هذه التقنية.
وينص "إعلان بلتشلي" على أنه من أجل تحقيق الخير للجميع، ينبغي إنشاء الذكاء الاصطناعي وتطويره ونشره، واستخدامه بطريقة آمنة، بشكل يجعله جديراً بالثقة ويحمّل مشغليه المسؤولية.
وفي الوقت نفسه، أشار الإعلان إلى مخاطر تطوير الذكاء الاصطناعي، من خلال الاعتراف بسلبيات استخدامه بطريقة مؤذية متعمّدة أو عن غير قصد.
وأقر الموقعون على الإعلان بوجوب البحث عن فرص، لاستخدام الذكاء الاصطناعي من أجل الخير ولصالح الجميع، بطريقة شاملة على مستوى العالم.
كما شهدت القمة إعلان الصين وعلى لسان وو تشاو هوي، نائب وزير العلوم والتكنولوجيا الصيني، أن بلاده مستعدة لتعزيز الحوار، والتواصل في مجال سلامة الذكاء الاصطناعي مع جميع الأطراف في العالم، وذلك رغم صدامها التكنولوجي مع الولايات المتحدة.
وكشف وو تشاو هوي، أن الصين ستساهم في وضع آلية دولية، بشأن الذكاء الاصطناعي، لتحقيق فوائد للبشرية.
وتأتي التصريحات الصينية التي تخلق أرضية مشتركة، بشأن المخاطر التي يشكلها الذكاء الاصطناعي على البشرية، في وقت تخوض فيه بكين نزاعاً تكنولوجياً مع الولايات المتحدة، ما دفعها للعمل على تطبيق قواعدها الخاصة، للتحكم بتطوير الذكاء الاصطناعي التوليدي.
القوة الأكثر تدميراً في التاريخ
واختتمت "قمة سلامة الذكاء الاصطناعي" بمناقشة "مثيرة" بين رئيس الوزراء البريطاني ريتشي سوناك ورئيس شركة X إيلون ماسك، الذي أعلن أن الذكاء الاصطناعي، لديه القدرة على أن يصبح "القوة الأكثر تدميراً في التاريخ".
وبحسب ماسك فإن الذكاء الاصطناعي سيؤدي إلى حرمان جميع البشر من وظائفهم، حيث أنه ولأول مرة سيكون لدى العالم شيء سيتفوق على ذكاء البشر.
لجم الذكاء الاصطناعي
وتأتي "قمة سلامة الذكاء الاصطناعي" بعدما دخلت مفاوضات الاتحاد الأوروبي في بروكسل، مرحلة محورية في 25 أكتوبر 2023، حيث سعى المسؤولون إلى وضع اللمسات الأخيرة، على قانون الذكاء الاصطناعي المتوقع أن يقره الاتحاد، بحلول نهاية العام الحالي، والذي يسعى إلى لجم الذكاء الاصطناعي والسيطرة عليه من خلال قواعد ومعايير تنظم استخدامه.
كما أنه وفي الأيام التي سبقت القمة البريطانية، أصدر البيت الأبيض أمراً تنفيذياً يلزم مطوري الذكاء الاصطناعي، بإطلاع الحكومة الأميركية على نتائج إجراءات السلامة، ما يساهم في تعزيز مواصفات السلامة في هذا المجال.
ووسط هذا الزخم العالمي لتنظيم الذكاء الاصطناعي، تبقى المفارقة أن أحداً حتى الساعة في المجتمع الدولي، لا يعرف كيف يمكن السيطرة فعلياً على الذكاء الاصطناعي، وسط تضارب في الآراء بين جميع الأطراف، في وقت يشهد فيه هذا القطاع منافسة شرسة، ستكون السبب في تفلّت الأمور وخروجها عن السيطرة.
لا أحد يعرف كيفية تنظيم الذكاء الاصطناعي
ويقول المحلل في شؤون الذكاء الاصطناعي ألان القارح، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن السؤال الذي يبذل الجميع، قصارى جهدهم للإجابة عليه الآن هو "كيف يمكن تنظيم الذكاء الاصطناعي وضمان عدم تحوله إلى أداة ضد الإنسانية"، مشيراً إلى أنه حالياً لا أحد يعرف كيف يمكن تحقيق ذلك، فرغم أن هناك قدراً كبيراً من الإرادة السياسية للقيام بشيء ما تجاه هذا الموضوع، إلا أن القرارات التي تم اتخاذها حتى الساعة، تحمل عناوين "فضفاضة"، وليس من الواضح ما هو دورها في كبح جماح الذكاء الاصطناعي.
المنافسة الجامحة تدفع إلى التهوّر
وبحسب القارح فإن "إعلان بلتشلي"، هو كناية عن توصيات وإرشادات غير ملزمة، فرغم أن الإعلان أعطى انطباعاً أن هناك توافقاً عالمياً، على تنفيذ خريطة طريق لضبط مسار تطور الذكاء الاصطناعي بشكل يضمن عدم خروجه عن السيطرة، إلا أنه يجب الأخذ في الاعتبار أن هناك دولاً وشركات، تقول شيئاً في العلن وتفعل عكسه في السر، فأميركا تريد أن تكون الفائزة في سباق تطوير هذه التكنولوجيا، وكذلك أوروبا والصين، وهذه المنافسة الجامحة ستدفع الشركات في هذه الدول، إلى التهوّر، من خلال إطلاق نماذج للذكاء الاصطناعي، يمكن إساءة استخدامها بسهولة، ما يطرح تساؤلات حول جدوى "الالتزامات الطوعية" التي تم التوصل إليها، في وقت يسعى الجميع للفوز بهذا السباق حتى لو تتطلب ذلك القفز على بعض القواعد.
ويرى القارح أنه بالنسبة للمبتدئين، قد تكون القرارات التي تم إتخذاها، بشأن ضبط وتنظيم الذكاء الاصطناعي قوية، ولكن الحقيقة هي عكس ذلك، وهذا الأمر سببه التطور السريع، الذي يشهده الذكاء الاصطناعي، وانتقاله من مرحلة لأخرى بسهولة، حيث لا يكاد يمر يوم، دون أن تعلن شركة عن تحقيقها اختراق جديد في هذه التكنولوجيا، مؤكداً أنه حتى من قاموا بتطوير برامج الذكاء الاصطناعي، لا يمكنهم تحديد ما هي قدرات برامجهم خلال عملية التطوير، ومن هنا فإنهم لا يدركون ما هي المخاطر الناتجة عنها إلا بعد ظهورها للعلن، ووقوعها في أيدي الأشرار، تماماً كما حصل مع العديد من الاختراعات السابقة.
مهمة مستحيلة
ويشرح القارح أن العالم شهد وعلى مرّ التاريخ، ظهور الكثير من الاختراعات لأهداف "نبيلة"، تساعد الإنسان على التقدم، ولكن عند وصول هذه الاختراعات إلى أيدي الأشرار، استطاعوا تحويلها إلى أدوات للسرقة والابتزاز وحتى القتل، وهذا الأمر ينطبق أيضاً على تكنولوجيا الذكاء الاصطناعي، التي ستلاقي مصير العديد من الاختراعات السابقة، فمثلاً شبكة الإنترنت وجدت لمساعدة الناس على القيام بأعمالهم، وتسهيل تواصلهم مع العالم، ولكن بعض الأطراف حولتها إلى أداة للابتزاز والسرقة، عبر تنفيذ الهجمات السيبيرانية، ولذلك فإن تنظيم تكنولوجيا الذكاء الاصطناعي بنسبة 100 بالمئة، سيكون بمثابة "مهمة مستحيلة" فالحل لعدم تحولها إلى أداة قد يستخدمها الأشرار، كان بعدم ظهورها من الأساس، ووصولها إلى هذه المرحلة من التطور، إلا أن الأوان قد فات.
ووفقاً للقارح فإن من يريد معرفة ما هو السيناريو الذي ينتظرنا، فيما يتعلق بتكنولوجيا الذكاء الاصطناعي، عليه أن ينظر لما يحدث اليوم بالنسبة للهجمات السيبرانية، التي تدينها وتحاربها الدول في العلن، ولكنها تموّلها وتغذيها في السرّ، من خلال جيوش إلكترونية.
أسباب عدم القدرة على تنظيم الذكاء الاصطناعي
من جهته، يقول المحلل التقني جوزف زغبي، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن سبب عدم فهم المجتمع الدولي، لكيفية "تنظيم الذكاء الاصطناعي"، ليس لأنه لا يعرف كيف يمكن القيام بهذا الأمر، بل لأن الأمر مستحيل، وفي كل مرة ستقوم فيها هذه الجهات، بإغلاق ثغرة يمكن استغلالها للتحايل على الضوابط، ستجد أن هناك مئات الثغرات الجديدة التي تظهر، مشيراً إلى أن جميع المعايير التي تم وضعها هي بمثابة تمنيات، وسنجد أن هناك أطرافاً تلتزم بها، مقابل أطرف أخرى تخالفها، وبالتالي ستكون هناك حربٌ مفتوحة بين معسكر الشر ومعسكر الخير، بالنسبة لتكنولوجيا الذكاء الاصطناعي.
ما تم إقراره غير كاف
وكشف زغبي عن وجود تضارب في الآراء، بين جميع الأطراف بالنسبة لتنظيم الذكاء الاصطناعي، حيث كانت صناعة التكنولوجيا تعارض التنظيم في الغالب، وتعتبر أن الأمر سيتسبب في خنق التطور، ولكن الوضع تغيّر، خاصة بما يتعلّق بشركات مثل Alphabet وMicrosoft وAnthropic وOpenAI، التي باتت تضغط من أجل تنظيم هذه التكنولوجيا، لشعورها بالقلق من المخاطر الشديدة، التي قد تحدث مستقبلاً، في ظل تنبؤات رهيبة من أن نماذج الذكاء الاصطناعي، سوف تكون قادرة في غضون سنوات قليلة، على توفير كل المعلومات اللازمة لتصميم أسلحة بيولوجية.
وشدد زغبي على أن ما تم وسيتم إقراره من قيود على الذكاء الاصطناعي، يدل على أن إرادة العمل موجودة، ويساعد في ضبط الوضع جزئياً ولكنه غير كاف، كون هذه القيود تعتمد على أخلاقيات العمل، فمثلاً قد نرى أن الشركات الكبيرة، ستكون ملزمة على عدم استبدال موظفيها من البشر ببرامج الذكاء الاصطناعي، في حين سيكون من الصعب، منع بعض الأطراف التي تسعى لتحقيق نفوذ عالمي، عبر استخدام الذكاء الاصطناعي لشن هجمات تحاول من خلالها توسيع نفوذها.