حذر جيفر هينتون الملقب بـ “الأب الروحي للذكاء الاصطناعي” من مخاطر التكنولوجيا المثيرة بعد أسابيع من تركه وظيفته في “غوغل”.
وفي مقابلة حديثة مع شبكة “NPR”، قال هينتون إن هناك “خطراً جسيماً من أن تصبح الأشياء أكثر ذكاءً منا قريباً إلى حد ما وأن هذه الأشياء قد تحصل على دوافع سيئة وتتولى زمام الأمور”، وفقاً لما اطلعت عليه “العربية.نت”.
وأكد أن السياسيين وقادة الصناعة بحاجة إلى التفكير فيما يجب القيام به فيما يتعلق بهذه القضية في الوقت الحالي.
وقال: “لم يعد خيالاً علمياً. التقدم التكنولوجي يمثل مشكلة خطيرة من المحتمل أن تظهر قريباً جداً”.
ويرى أن العالم قد لا يكون بعيداً عن الذكاء الاصطناعي العام، الذي لديه القدرة على فهم أو تعلم أي مهمة فكرية يستطيع الإنسان القيام بها.
وحذر مشيراً إلى اعتقاده السابق، بأن الوصول إلى هذا المستوى لن يكون قبل 30 إلى 50 عاماً، بأننا قد نكون أقرب بكثير. ربما بعد 5 سنوات فقط.
بينما قارن بعض الأشخاص روبوتات الدردشة مثل “ChatGPT” من “OpenAI” بالإكمال التلقائي، قال هينتون إن الذكاء الاصطناعي تم تدريبه على الفهم – وهو كذلك.
وأضاف: “لا أقول إنه واعي. كما لا أنفي ذلك أيضاً”.
وتابع “يمكنهم بالتأكيد التفكير ويمكنهم بالتأكيد فهم الأشياء”. “وبعض الناس من خلال الوسط الحساس”.
وقال إنه “منزعج” من مدى ذكاء نموذج “PaLM” من “غوغل”، مشيراً إلى أنه يتفهم النكات ولماذا كانت مضحكة.
ومع إطلاق مثل هذه الذكاء الاصطناعي، تثير المخاوف بشأن استبدال الوظائف والنزاعات السياسية وانتشار المعلومات المضللة بسبب الذكاء الاصطناعي.
بينما وقع بعض القادة – بما في ذلك “إيلون ماس”، الذي لديه حصته الخاصة في مجال الذكاء الاصطناعي – على خطاب مفتوح “للإيقاف الفوري لمدة 6 أشهر على الأقل لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة مثل “GPT-4″، لا يعتقد هينتون أنه من الممكن إيقاف البحث.
وأوضح أن “البحث سيجري في الصين إذا لم يحدث هنا”.
وسلط الضوء على أنه سيكون هناك العديد من الفوائد للذكاء الاصطناعي وأكد أن القادة بحاجة إلى بذل الكثير من الموارد والجهود لمعرفة ما إذا كان من الممكن “الحفاظ على السيطرة حتى عندما يكونون أذكى منا”.