يقدّم كبير علماء شركة أنثروبيك، جاريد كابلان، رؤية قاتمة لمستقبل البشرية مع الذكاء الاصطناعي، معتبرًا أن "الخيار لنا" ما دمنا لا نُسلم زمام الأمور للآلات. وفي مقابلة مع صحيفة "الغارديان"، قال إن العالم يقترب سريعًا من لحظة حاسمة: بحلول 2030، أو ربما في أقرب وقت عام 2027، قد تضطر البشرية لاتخاذ قرار بشأن السماح لنماذج الذكاء الاصطناعي بأن "تدرّب نفسها".
بحسب كابلان، قد يقود ذلك إلى "انفجار ذكائي" يرفع التكنولوجيا إلى مستوى جديد ويُنتج ما يُعرف بـ"الذكاء الاصطناعي العام" الذي يعادل أو يتجاوز الذكاء
البشري ويحقق تقدماً علمياً وطبياً واسعاً. لكنه يحذّر في المقابل من احتمال تضخم قوة الذكاء الاصطناعي خارج السيطرة، قائلاً إن الأمر يبدو "مخيفاً" لأنك "لا تعرف
إلى أين ستنتهي بك الأمور".
ويرى كابلان أن الذكاء الاصطناعي قد يصبح قادرًا على أداء "معظم الأعمال المكتبية" خلال سنتين إلى ثلاث سنوات، وهو ما يلتقي مع تحذيرات أخرى نُسبت في النص إلى شخصيات بارزة في المجال بشأن سوق العمل. ومع تفاؤله بإمكان الحفاظ على توافق هذه الأنظمة مع المصالح البشرية، يضع علامة استفهام كبيرة حول السماح للأنظمة القوية بتدريب أنظمة أخرى عبر "التحسين الذاتي المتكرر"، أي التعلّم دون تدخل بشري وما قد ينتج عنه من قفزات نوعية.
ويختصر كابلان جوهر المخاوف بسؤال السيطرة: "هل تفقد السيطرة؟ هل تعرف حتى ما الذي تفعله أنظمة الذكاء الاصطناعي؟" ثم يربط القرار بسلسلة أسئلة: هل الذكاء الاصطناعي مفيد؟ هل سيكون غير مؤذٍ؟ وهل يتيح للناس الاستمرار في التحكم بحياتهم وبالعالم؟
النص نفسه يشير إلى أن تحذيرات كابلان تحتاج قراءة دقيقة، إذ قد تُلهي سيناريوهات الكارثة عن تبعات "أكثر واقعية" ذُكرت مثل الأثر البيئي، وملفات حقوق النشر، والآثار الإدمانية. كما يورد أن عدداً من الخبراء، بينهم يان ليكان، لا يعتقدون أن بنية النماذج الحالية قادرة على التحول إلى أنظمة فائقة القوة، وأنه ليس واضحاً حتى إن كان الذكاء الاصطناعي يرفع الإنتاجية فعلاً، مع الإشارة إلى حالات استبدال موظفين بأدوات ذكاء اصطناعي ثم العودة لتوظيفهم بعد فشلها.
وفي ختام المقابلة، يقرّ كابلان بإمكانية ركود التطور، متسائلاً: "ربما يكون أفضل ذكاء اصطناعي على الإطلاق هو الذكاء الاصطناعي الذي نمتلكه الآن"، لكنه يضيف أن الاعتقاد السائد لديه هو أنه سيواصل "التطور والتحسن". (futurism)