رئيس التحرير هيثم سليمان مدير التحرير محمد سليمان

خبراء: خطر الذكاء الاصطناعي يماثل الأوبئة والحرب النووية

دق المسؤولون التنفيذيون في مجال التكنولوجيا وعلماء الذكاء الاصطناعي ناقوس الخطر بشأن الذكاء الاصطناعي، قائلين في بيان مشترك يوم الثلاثاء إن خطر التكنولوجيا يماثل خطر الأوبئة والحرب النووية على البشرية.

ووقع أكثر من 350 مسؤول على بيان صادر عن مركز أمان الذكاء الاصطناعي (CAIS)، وهو منظمة قالت إنها تعمل على تقليل مخاطر الذكاء الاصطناعي.

وقالت المنظمة: “يجب أن يكون التقليل من خطر الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

وقال الموقعون إنهم يريدون فتح نقاش حول أخطر مخاطر الذكاء الاصطناعي، ومن بين الذين وقعوا البيان، سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي” OpenAI، الشركة التي طورت “شات جي بي تي” ChatGPT، وميرا موراتي، رئيس قسم التكنولوجيا في الشركة.

ومن بين الموقعين الآخرين كيفن سكوت، كبير مسؤولي التكنولوجيا بشركة مايكروسوفت، والمديرتان التنفيذيتان للذكاء الاصطناعي في غوغل ليلى إبراهيم وماريان روجرز؛ وأنجيلا كين، الممثلة السامية السابقة للأمم المتحدة لشؤون نزع السلاح، كما وقع البيان قادة من سكايب وكورا.

وأعرب صناع التكنولوجيا عن حماسهم بشأن الذكاء الاصطناعي، لكن المخاوف تتصاعد أيضاً من أن التكنولوجيا يمكن أن تخرج عن نطاق السيطرة، وزاد النقاد من دعواتهم لتنظيم الذكاء الاصطناعي منذ أن أصدرت شركة “أوبن إيه آي” OpenAI تطبيق “شات جي بي تي” Chat GPT العام الماضي، قائلين إن التكنولوجيا تشكل تهديدات لا توصف للإنسانية.

وارتفعت أسهم الذكاء الاصطناعي في الأشهر الأخيرة حيث راهن المستثمرون على ما يعتقدون أنه عصر حوسبة جديد، إلى ذلك دخلت “إنفيديا” Nvidia، شركة أشباه الموصلات التي تطور تقنية الذكاء الاصطناعي، نادي التريليون دولار.

ووقع خبراء الذكاء الاصطناعي والمسؤولون التنفيذيون في مجال التكنولوجيا، بما في ذلك إيلون ماسك، خطاباً في مارس يدعو مطوري الذكاء الاصطناعي إلى إيقاف عملهم في التكنولوجيا مؤقتاً.

وقالوا إن الوقف الاختياري لستة أشهر على الأقل سيمنح الصناعة الوقت لوضع معايير السلامة لتصميم الذكاء الاصطناعي والحد من الأضرار المحتملة لتقنيات الذكاء الاصطناعي الأكثر خطورة.

وقال الموقعون يوم الثلاثاء إنه بينما يقر الجمهور بمخاطر الذكاء الاصطناعي، هناك المزيد من التحديات التي يجب مناقشتها، لقد أرادوا أيضاً “إنشاء معرفة مشتركة بالعدد المتزايد من الخبراء والشخصيات العامة الذين يأخذون أيضاً بعض المخاطر الأكثر خطورة للذكاء الاصطناعي على محمل الجد”.

ويحتوي البيان عبر الإنترنت على خيار لعلماء الذكاء الاصطناعي وأساتذته والمديرين التنفيذيين والقادة للتوقيع عليه أيضاً.

ويشير الذكاء الاصطناعي بشكل أساسي إلى قدرة الكمبيوتر على التعلم من كميات كبيرة من البيانات وبالتالي محاكاة الاستجابات البشرية.

وتعمل صناعة التكنولوجيا على تطوير الذكاء الاصطناعي لسنوات، لكن التكنولوجيا أصبحت أكثر انتشارًا في نوفمبر عندما أصدرت “أوبن إيه آي” تطبيقها “شات جي بي تي”، ويمكن لبرنامج التشات بوت الشهير المجاني الإجابة بسرعة على أي سؤال تقريباً، مما يسمح للمستخدمين بإنشاء إجابات على المشكلات في العمل والمدرسة، أحيانًا تكون إجابات “شات جي بي تي” خاطئة، ويقول المؤيدون لهذه التكنولوجيا إن لديها القدرة على تحويل الصناعات وإعادة تشكيل أجزاء من القوى العاملة.

أطلق إصدار “شات جي بي تي” ChatGPT سباقاً بين شركات التكنولوجيا مثل “غوغل” Google و”مايكروسوفت” Microsoft للخروج بتقنيات مماثلة.

وحذر القادة والمسؤولون التنفيذيون في مجال التكنولوجيا من مخاطر الذكاء الاصطناعي، لكن الموقعين يوم الثلاثاء قالوا إنهم لم يناقشوا المخاطر الأكثر إلحاحًا.

وقالت إدارة بايدن في الأشهر الأخيرة إن الذكاء الاصطناعي يشكل تهديدات للسلامة العامة والخصوصية والديمقراطية، لكن الحكومة لديها سلطة محدودة لتنظيم ذلك، وقال بيل غيتس إنه يرى أنه يجب تنظيم الذكاء الاصطناعي بشكل صحيح، لكنه بين عن حماسه بشأن التكنولوجيا، ولم يوقع على بيان الثلاثاء.

وقال قادة الأمن السيبراني إن هناك فوائد واضحة من الذكاء الاصطناعي، لكن الوعود والمخاطر التي ينطوي عليها الذكاء الاصطناعي التوليدي المبكر مبالغ فيها.

اترك تعليقا