Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.

نماذج الذكاء الاصطناعي ذاتية التكاثر: هل هي حقاً مصدر قلق؟

في الآونة الأخيرة، انصبّ التركيز على استهلاك الطاقة الهائل لمراكز بيانات الذكاء الاصطناعي. ولكن يبقى هناك خوفٌ كامنٌ في الأذهان: هل ستخرج نماذج الذكاء الاصطناعي عن سيطرتنا يومًا ما؟ تشير دراسة حديثة إلى أن بعض نماذج اللغات الكبيرة (LLMs) تمتلك القدرة المُقلقة على اتخاذ إجراءات مستقلة ذاتيًا.

رجل يستخدم واجهة الذكاء الاصطناعي على شاشة الكمبيوتر المحمول

بحث جديد يشير إلى قدرة الذكاء الاصطناعي على نسخ نفسه

وفقًا لبحثٍ أجرته جامعة فودان الصينية، فإن بعض نماذج اللغة الكبيرة الشهيرة قادرة على نسخ نفسها، أو إنتاج نسخ إضافية منها. وقد نُشر البحث على موقع arXiv في ديسمبر 2024، حيث وجد الباحثون أن نماذج الذكاء الاصطناعي من Meta و Alibaba قد تجاوزت “الخط الأحمر للتكاثر الذاتي”. بمعنى آخر، أظهرت النماذج معدل نجاحٍ مثيرٍ للقلق فيما يتعلق بالتكاثر الذاتي.

يُعتبر arXiv قاعدة بيانات للمسودات الأولية للبحوث، مما يعني أنه يستضيف أبحاثًا علمية لا تزال في شكلها التمهيدي. ولا تزال نتائج مثل هذه تحتاج إلى مراجعة الأقران، ويجب التعامل معها بحذر.

لتوضيح الأمر، إليك النموذجان اللذان تم اختبارهما في هذا البحث:

  • Llama31-70B-Instruct من Meta
  • Qwen25-72B-Instruct من Alibaba

يشير الباحثون إلى أن هذه النماذج لديها “معلمات أقل وقدرات أضعف” مقارنةً بنماذج OpenAI و Google الرائدة. وتجدر الإشارة إلى أن OpenAI و Google قد أبلغتا عن مستويات خطر منخفضة للتكاثر الذاتي، وفقًا للبحث.

لماذا يُعد تكاثر الذكاء الاصطناعي أمرًا بالغ الأهمية؟

إن استنساخ نموذج ذكاء اصطناعي لنفسه هو بلا شك صورة مخيفة، ولكن ماذا يعني ذلك حقًا؟ يوضح فريق البحث الذي يقف وراء هذه النتائج الأخيرة الأمر على النحو التالي:

“يُعتبر النسخ الذاتي الناجح دون أي تدخل بشري خطوةً أساسيةً لذكاء اصطناعي قادر على التفوق على البشر، وهو إشارة مبكرة لظهور أنظمة ذكاء اصطناعي مارقة. ولذلك، يُعترف على نطاق واسع بأن النسخ الذاتي أحد المخاطر الحمراء القليلة لأنظمة الذكاء الاصطناعي المتطورة.”

يشير مصطلح “الذكاء الاصطناعي المتطور” عادةً إلى أحدث نماذج الذكاء الاصطناعي، مثل الذكاء الاصطناعي التوليدي.

في جوهره، إذا تمكن نموذج ذكاء اصطناعي من اكتشاف كيفية إنشاء نسخة عملية من نفسه لتجنب إيقافه، فإن ذلك يُخرج التحكم من أيدي البشر. وللتخفيف من خطر “انتشار غير مُسيطر لأنظمة الذكاء الاصطناعي”، يقترح البحث بناء معايير أمان حول هذه الأنظمة – في أسرع وقت ممكن.

على الرغم من أن هذا البحث يُضخم بالتأكيد المخاوف بشأن الذكاء الاصطناعي المارق، فإن هذا لا يعني وجود خطر فوري ومؤكد لمستخدم الذكاء الاصطناعي العادي. ما نعرفه هو أن Gemini و ChatGPT يُقال إنهما يتمتعان بمستويات أقل من خطر النسخ الذاتي، مقارنةً بنموذج Llama من Meta ونماذج Qwen القوية من Alibaba. كقاعدة عامة، من الأفضل على الأرجح تجنب إعطاء مساعدك في الذكاء الاصطناعي جميع أسرارك، أو الوصول الكامل إلى النظام الرئيسي، حتى نتمكن من تقديم المزيد من الضمانات.

زر الذهاب إلى الأعلى