حذر أستاذ الاقتصاد والحائز على جائزة نوبل بول رومر من أن الثقة الجامحة في الذكاء الاصطناعي تخاطر بتكرار أخطاء فقاعة الضجيج حول العملات المشفرة التي حدثت قبل عامين فقط.
وقال رومر في مؤتمر UBS للاستثمار الآسيوي في هونغ كونغ اليوم الأربعاء: “في الوقت الحالي، هناك قدر كبير جداً من الثقة بشأن المسار المستقبلي للذكاء الاصطناعي. عندما يطرح الناس هذا الأمر للأمام، أعتقد أنهم معرضون لخطر ارتكاب خطأ فادح للغاية”، وفقاً لما ذكره لوكالة “بلومبرغ”، واطلعت عليه “العربية Business”.
أثارت OpenAI موجة من الإثارة حول الذكاء الاصطناعي من خلال تطبيق ChatGPT الذي حظى بشعبية كبيرة في أواخر عام 2022، مما أدى إلى استثمار ضخم في الطاقة الحسابية والقدرات السحابية من قبل عمالقة التكنولوجيا من “مايكروسوفت”، و”علي بابا”، وقد حول ذلك شركة “إنفيديا” إلى شركة تبلغ قيمتها تريليونات الدولارات، حيث كانت رقائقها هي الأكثر فعالية في التعامل مع التدريب على الذكاء الاصطناعي. لكن رومر حذر من خطورة توقع استمرار المعدل الحالي للتحسن في خدمات الذكاء الاصطناعي إلى أجل غير مسمى.
وقال كبير الاقتصاديين السابق في البنك الدولي: “لقد استفدنا من توسيع نطاق الحوسبة واستيعاب قدر كبير من البيانات. إن توسيع نطاق الحوسبة أمر سهل للغاية. إنها مجرد المزيد من الآلات والمزيد من الرقائق. ولكن ما سيحدث هو أننا لن يكون لدينا ما يكفي من البيانات.
الحكاية التحذيرية الرئيسية في نظر رومر هي مثال المركبات ذاتية القيادة. لقد وعدت شركات مثل شركة تسلا بتصنيع سيارات ذاتية القيادة بالكامل لسنوات، لكن أنظمة التشغيل الآلي الخاصة بها لا تزال تعاني من مشكلات الموثوقية والسيناريوهات التي تمنع تحقيق هذا الوعد.
وخلص رومر إلى أنه في غضون عامين، من المرجح أن ينظر الناس إلى اللحظة الحالية ويقولون: “لقد كانت فقاعة بالفعل، لقد بالغنا في تقدير الاتجاه الذي كانت تسير فيه”.