تريند

"الذكاء الاصطناعي قد يقتل الناس مستقبلاً"!

مسؤول سابق في "غوغل" يقول: يمكن استخدام الذكاء الاصطناعي لخلق وباء مميت وتصميم فيروسات أو بكتيريا جديدة مقاومة للعلاج، كذلك لصنع اسلحة أكثر فتكًا: "نحن نعمل مع برامج خطيرة"!
توضيحية

حذر المدير التنفيذي السابق لشركة "غوغل" ورائد الذكاء الاصطناعي، مصطفى سليمان، من إمكانية استخدام الذكاء الاصطناعي لخلق وباء مميت. وفي حديثه في حلقة من البودكاست The Diary of a CEO، قال سليمان إنه يمكن استخدام الذكاء الاصطناعي لتصميم فيروسات أو بكتيريا جديدة أكثر فتكا ومقاومة للعلاج.

وأشار سليمان إلى أن هذه الفيروسات يمكن أن "تنتشر بشكل أسرع أو  ان تكون أكثر فتكا"، مما يسبب في النهاية "المزيد من الضرر" وربما يقتل الناس "مثل الوباء". وقال: "نحن نعمل مع أشياء خطيرة، لا يمكننا السماح لأي شخص بالوصول إليها. إننا بحاجة إلى تحديد من يمكنه استخدام برامج الذكاء الاصطناعي، والأنظمة السحابية، وحتى بعض المواد البيولوجية".

ومصطفى سليمان هو باحث ورجل أعمال بريطاني في مجال الذكاء الاصطناعي. وهو أيضا المؤسس المشارك والرئيس السابق للذكاء الاصطناعي التطبيقي في DeepMind، وهي شركة ذكاء اصطناعي استحوذت عليها "غوغل".

ولا يعد سليمان الوحيد الذي يشعر بالقلق إزاء المخاطر المحتملة للذكاء الاصطناعي. حيث كشف عدد من الخبراء في هذا المجال عن مخاوفهم بشأن الاستخدام السيئ لمثل هذه التكنولوجيا، وحذروا من إمكانية استخدام الذكاء الاصطناعي لصنع أسلحة بيولوجية.

وفي آذار الماضي، حذر باحثون من إمكانية إعادة استخدام الذكاء الاصطناعي لصنع أسلحة كيميائية حيوية جديدة. وقالوا إن تجربتهم يجب أن تكون بمثابة "جرس تنبيه" لأولئك الذين يستخدمون تقنيات الذكاء الاصطناعي لاكتشاف الأدوية. وحتى الشركات التي ابتكرت تقنيات الذكاء الاصطناعي هذه اعترفت بالضرر المحتمل الذي قد تسببه.

ووقع الرؤساء التنفيذيون لشركة OpenAI وGoogle DeepMind وStability AI، في شهر آذار، على بيان يدعو إلى جعل التخفيف من "خطر الانقراض الناجم عن الذكاء الاصطناعي" أولوية عالمية.

وكان الدكتور جيفري هينتون، الذي يُنظر إليه على نطاق واسع على أنه "الأب الروحي للذكاء الاصطناعي" والذي استقال مؤخرا من "غوغل" بعد التحذير من مخاطر التكنولوجيا، من بين الموقعين البارزين على هذا البيان. وجاء في البيان القصير الذي نشره مركز سلامة الذكاء الاصطناعي: "يجب أن يكون التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".

وقد تم التوقيع على البيان من قبل أكثر من 300 باحث ومهندس وأكاديمي ومتخصص في مجال التكنولوجيا في مجال الذكاء الاصطناعي.

bar_chart_4_bars مقالات متعلقة

السعودية: تنفيذ حكم القتل في مواطن أدين...

2024/10/11 11:15

قصة خاتم خطوبة كيت ميدلتون المتوارث عن...

2024/09/02 17:51

خطر حقيقي يهدد مدينة روما!

2024/08/20 01:14

سعودي يتجول مع عادل إمام في روسيا (صورة)

2024/08/12 15:39

انفجار هائل يؤدي لظهور كرة نار على سفينة...

2024/08/09 15:39