كيف تستعد شركات التكنولوجيا لسيناريو نهاية العالم بيد الـAI؟
13:08 - 27 يوليو 2023تكتسب سيناريوهات نهاية العالم بسبب الذكاء الاصطناعي زخما كبيراً في وادي السيليكون، فظهور الجيل الجديد منه، والمعروف بالذكاء الاصطناعي التوليدي، أثبت أن العمل المستمر على تحديث وتطوير هذه التكنولوجيا، قد يوصلنا الى مرحلة تتحول فيها تقنية الذكاء الاصطناعي، الى تقنية عدائية تجاه البشر.
ورغم أن سيناريو تحوّل الذكاء الاصطناعي إلى تقنية عدائية تجاه البشر، قد يعتبره البعض أمراً مبالغاً فيه، مقارنة بالقدرات التي تتمتع بها هذه التكنولوجيا حالياً، إلا أن التنامي المتسارع لسلطة هذا الذكاء منذ نهاية 2022 وحتى الآن، أثار مخاوف بشأن ما تخبئه هذه التكنولوجيا في المستقبل، حيث بات هذا الموضوع نقطة جذب على أعلى المستويات في مجتمع الذكاء الاصطناعي، بمن فيهم الرؤساء التنفيذيين لشركات OpenAI و Anthropic وغوغل.
وتنقسم آراء الخبراء والمراقبين بشأن المخاطر المستقبلية للذكاء الاصطناعي، بين من يرى أن الاستمرار بتطويره، سيؤدي في النهاية إلى انقراض الجنس البشري، وهو الرأي الأكثر تطرفاً في هذا المجال، وبين من يرى أن هذه التكنولوجيا تنطوي بالفعل على مخاطر، ولكن يمكن تجنبها في حال إقرار بعض الضوابط التنظيمية بهذا الشأن.
كما أن هناك رأي يدعو إلى التوقف مؤقتاً عن تدريب أنظمة الذكاء الاصطناعي التوليدي، وذلك كي يتمكن البشر من تقييم مخاطر تلك النماذج.
وهذا الخوف الكبير من سيناريوهات تحول الذكاء الاصطناعي إلى تقنية عدائية تجاه البشر، هو الذي دفع كبرى الشركات في وادي السيليكون، إلى التجاوب مع الجهود التي يقودها البيت الأبيض، للحد من مخاطر هذه التكنولوجيا، حيث تم الإعلان مؤخراً أن أمازون وغوغل وميتا ومايكروسوفت، إضافة إلى "OpenAI"، وAnthropic وInflection AI، وهي جميعها شركات تقود تطوير تكنولوجيا الذكاء الاصطناعي، جميعها وافقت على تلبية مجموعة من الإجراءات التي من شأنها أن تقود مستقبل التطور في الذكاء الاصطناعي.
وقدمت الشركات المذكورة التزامات طوعية، تهدف إلى ضمان أمان منتجات الذكاء الاصطناعي الخاصة بها، وذلك من خلال إشراف طرف ثالث مستقل على برمجيات الذكاء الاصطناعي التي تطورها قبل إطلاقها على صعيد تجاري.
كما التزمت الشركات سابقة الذكر، بالإبلاغ عن نقاط الضعف والعيوب، والمخاطر في أنظمتها للذكاء الاصطناعي، وإضافة إلى ذلك تعهدت هذه الشركات بإظهار علامات مائية رقمية، على الصور التي ينتجها الذكاء الاصطناعي التوليدي، لمساعدة المستخدمين على التمييز بين الصور الحقيقية والصور المركبة.
هل تنقلب الآلات علينا؟ شات جي بي تي يجيب
المخاطر موجودة بالفعل
اهتمام البيت الأبيض للتدخل عبر اتخاذ خطوات احتياطية، ووضع ضوابط لما يمكن أن تنتجه تكنولوجيا الذكاء الاصطناعي، يؤكد أن المخاطر الكبيرة التي يتحدث عنها البعض، بشأن هذه التكنولوجيا، موجودة بالفعل، ليبقى السؤال، هل يمكن فعلاً لأدوات الذكاء الاصطناعي أن تنفذ إنقلاباً على البشر؟، وان تتسبب بانقراض الجنس البشري؟.
تقول الرئيسة التنفيذية لشركة The Business Horizons للاستشارات، ديانا عراجي، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "تسبب الذكاء الاصطناعي بانقراض الجنس البشري هو وصف مبالغ فيه حالياً، ولكنه قد يصبح حقيقياً بعد سنوات من الآن"، وذلك في حال استمر تطوير هذه الأنظمة لدرجة، لا يعود فيها البشر قادرين، على إحكام سيطرتهم عليها بسبب تجاوزها لمستويات ذكائهم، فعندها ستتفوق الآلة بقدراتها على البشر، وتخرج عن نطاق سيطرتهم، مشيراً إلى أن أخطر لحظة سيعيشها العالم، هي عندما تعرف الآلات كيف تصنع آلات أخرى بنفسها، ودون أي تدخل من الإنسان.
الذكاء الاصطناعي ليس شريراً
وبحسب عراجي فإن أنظمة الذكاء الاصطناعي ليست شريرة، وهي بدأت تتمدد حالياً في جميع القطاعات الإنتاجية والصناعية والطبية والعسكرية، ولكن ماذا لو قام مطورها بتدريبها، على فكرة أن البشر يريدون إلحاق الأذى بها؟
وفقاً لهذا السيناريو الكارثي، فإن هذه الأنظمة ستعتبر البشر أعداءها، وبالتالي لن يتردد الذكاء الاصطناعي ومن خلال قوة الحوسبة الهائلة التي يمتلكها، في إيجاد أي أسلوب أو طريقة لإيذاء أو قتل البشر، ضمن القطاعات الموجود بها، وصولاً إلى انتاج سموم وفيروسات جديدة ونشرها في جميع أنحاء العالم.
وترى عراجي أن ما يُطمئن هو أن شركات وادي السيليكون، ورغم اعتبار بعضها أن هناك مبالغات في توصيف أخطار الذكاء الاصطناعي، إلا أنها قررت التجاوب مع المخاوف، وإظهار أن نيتها ليست تطوير ذكاء اصطناعي شرير، بل جعله مساعداً لدور البشر، مشددة على أن الالتزامات الطوعية التي قدمتها هذه الشركات للبيت الأبيض، يمكن أن تؤدي إلى معالجة المخاطر قبل ظهورها، ولكن هذا لا يعني أنه يجب فقط الاكتفاء بما قدمته 7 شركات من تطمينات والتزامات، إذ يتعين على جميع الحكومات في العالم، إعتماد سياسة إستباقية، يتم من خلالها تنظيم انتشار تكنولوجيا الذكاء الاصطناعي .
ولعل أبرز ما عمق المخاوف العالمية من مخاطر الذكاء الاصطناعي، كان ما أعلنه منذ أشهر، رائد التقنية والأب الروحي للذكاء الاصطناعي، جيفري هينتون، الذي أعلن صراحة، أنه يجب عدم الإسراع في تطوير الإصدارات المستقبلية من برامج الذكاء الاصطناعي، وذلك حتى يفهم البشر، ما إذا كان بإمكانهم التحكم بها، ما يمكنهم من تفادي تحولها إلى أنظمة مستقلة.
كما حضّ هينتون الحكومات على التدخل لضمان ألا تسيطر الآلات على المجتمع، مشيراً إلى أنه من المهم أن يدرك الناس، أن ما يقال عن مخاطر الذكاء الاصطناعي، ليس خيالاً علمياً أو مجرد إثارة للمخاوف بل حقيقة.
من جهة أخرى دعا مركز أمان الذكاء الاصطناعي، وهو مركز أبحاث غير ربحي، إلى التخفيف من مخاطر الانقراض، الذي قد يتسبب به الذكاء الاصطناعي للبشر، مشدداً على أن هذا الأمر يجب أن يكون أولوية عالمية، إلى جانب مخاطر الأوبئة والحرب النووية.
إشراف إلزامي على برمجيات الشركات
بدوره يقول مطور التطبيقات ومحلل شؤون التكنولوجيا هشام الناطور، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إنه في ظل ثورة الذكاء الاصطناعي التوليدي، التي يعيشها العالم حالياً، فإن الشركات التكنولوجية في وادي السيليكون، بدأت بالفعل باتخاذ احتياطاتها، بعد المخاوف المثارة حول هذه التكنولوجيا، مشيراً إلى أن موافقة شركات مثل أمازون وغوغل وميتا ومايكروسوفت، على أن تخضع برمجيات للذكاء الاصطناعي التابعة لها، للإشراف من قبل خبراء مستقلين، قبل طرحها على الصعيد التجاري هي خطوة كبيرة جداً، حيث سيتاح لطرف حيادي، التأكد مما إذا كانت هذه البرمجيات تخطت ما هو مسموح لها، ما يعني أن القرار النهائي بشأن هذه البرمجيات، أصبح مرتبطاً بجهة قد تعينها السلطات الرسمية الأميركية.
وبحسب الناطور، فإن العالم ينتظر الآن ما ستقوم به أطرف أخرى في هذا السياق، مثل الشركات الأوروبية والشركات الصينية والشركات الكورية الجنوبية، معرباً عن تخوفه من عدم التزام عددٍ من شركات التكنولوجيا في العالم، بضوابط استخدام الذكاء الاصطناعي، وخاصة الكيانات التي تملك فكراً شريراً، والتي ستحاول الاستفادة من الإمكانات الهائلة للذكاء الاصطناعي، وتحقيق اختراقات في هذا المجال، لتوسيع نفوذها.
ويرى الناطور أن تتسبب تكنولوجيا الذكاء الاصطناعي التوليدي في نهاية العالم، هو سيناريو وارد، ولكنه ليس حتمياً، كما أن حظوظه ستتراجع، كلما تم تبني وإقرار ضوابط، تحدد كيفية عمل وتوسع، هذه التكنولوجيا، فوضع حدود لتطور هذا الذكاء والحرص على عدم تفوقه على ذكاء الانسان، يزيل الخطر الأكبر الناتج عنه، وذلك رغم اعتبار البعض أن كل الضوابط التي يتم التكلم عنها، لن تمنع الذكاء الاصطناعي من بلوغ مرحلة التفوق على البشر.