ريد هوفمان والذكاء الاصطناعي: رؤية متوازنة لمستقبل البشرية

أضيف بتاريخ 04/11/2025
منصة ذكاء

يقدم ريد هوفمان، المؤسس المشارك لموقع LinkedIn والمستثمر المؤثر في وادي السيليكون، منظوراً فريداً حول الذكاء الاصطناعي ودوره في مستقبل البشرية. في محاضرته الأخيرة في جامعة أكسفورد في أبريل 2025، طرح هوفمان مفهوم "إدارة محفظة المخاطر الوجودية"، متحدياً وجهة نظر المتشائمين الذين يرون في الذكاء الاصطناعي تهديداً وجودياً يجب كبحه.

في كتابه الجديد "Superagency: What Could Possibly Go Right with Our AI Future"، يقدم هوفمان إطاراً شاملاً لفهم التحديات والفرص التي يقدمها الذكاء الاصطناعي. يؤكد أنه بينما يضيف الذكاء الاصطناعي مخاطر جديدة، فإنه قد يكون أيضاً أداتنا الأقوى لمواجهة تهديدات وجودية أخرى مثل الأوبئة والكوارث المناخية والإرهاب البيولوجي.

يصنف هوفمان المواقف تجاه الذكاء الاصطناعي إلى أربع فئات: "doomers" (المتشائمون)، و"gloomers" (القلقون)، و"zoomers" (المتحمسون)، و"bloomers" (المتفائلون الحذرون). وفي مقابل المخاوف التي عبر عنها جيفري هينتون، المعروف بـ"أبو الذكاء الاصطناعي"، وإيلون ماسك، يحافظ هوفمان على نظرة متوازنة ومتفائلة.

في مقابلة مع Marketplace، شرح هوفمان كيف أن الذكاء الاصطناعي يمكن أن يساعد في مكافحة الأوبئة المستقبلية: "الذكاء الاصطناعي هو أداتنا الوحيدة القادرة على اكتشاف وتحليل وإيجاد حلول للأوبئة الأكثر خطورة من كوفيد-19 في الوقت المناسب."

يطرح هوفمان مفهوم "الوكالة الفائقة" (Superagency)، الذي يصف به التعزيز الهائل للقدرات البشرية من خلال التكنولوجيا. وفي حديثه في جامعة وارتون، شبه هذا التحول بتأثير اختراع السيارة على المجتمع، حيث غيرت ليس فقط طريقة تنقلنا، بل أيضاً كيفية عيشنا وعملنا.

في مواجهة الانتقادات التي تدعي أن التركيز على المخاطر المستقبلية يصرف الانتباه عن التحديات الحالية، يؤكد هوفمان أن النهج المتوازن ضروري. فكما أوضح في منشور على LinkedIn، يجب علينا إدارة المخاطر دون كبح الابتكار.

وفي تصريح لـ Fortune، أكد هوفمان أن التنظيم يجب أن يكون مستهدفاً ومحدوداً، مع التركيز على منع المخاطر الكارثية مع السماح بالتقدم والابتكار. هذا الموقف المتوازن يعكس فهماً عميقاً للتحديات والفرص التي يقدمها الذكاء الاصطناعي.