تكنولوجيا

مسؤول سابق في OpenAI: بنسبة 70%.. الذكاء الاصطناعي العام سيد


11:39 ص


الأحد 09 يونيو 2024

حذر مسؤول بارز سابق في شركة OpenAI من أن احتمال قدرة “الذكاء الاصطناعي المتقدم” على تدمير البشرية، يفوق 70%.

وقال الباحث دانييل كوكوتايلو، الذي ترك فريق الحوكمة في Open AI إن الشركة تدرك مخاطر إقدامها على مشروع نظام ذكاء اصطناعي عام (AGI)، لكنها تتجاهلها.

يعد AGI نوعا افتراضيا من الذكاء الاصطناعي، يتميز بالقدرة على الفهم والتفكير من خلال مجموعة واسعة من المهام. وستحاكي هذه التكنولوجيا أو تتنبأ بالسلوك البشري، ولديها القدرة على التعلم والتفكير.

وأضاف في مقابلة مع “نيويورك تايمز”، إن احتمال تدمير “الذكاء الاصطناعي المتقدم” للبشرية يبلغ حوالي 70%، لكن الفريق المطور يتجاهل ذلك ويواصل مشروعه.

وقال كوكوتايلو: “إن شركة OpenAI متحمسة لبناء الذكاء الاصطناعي العام، وتسعى لتكون الأولى في هذا المجال”.

وأضاف أنه بعد انضمامه إلى OpenAI قبل عامين، كان مكلفا بالتنبؤ بتقدم التكنولوجيا، وتوصل إلى استنتاج مفاده أن الصناعة لن تقوم بتطوير الذكاء الاصطناعي العام بحلول عام 2027 فحسب، بل هناك فرصة قوية لأن تؤدي هذه التكنولوجيا إلى إلحاق ضرر كارثي بالبشرية أو حتى تدميرها.

وأوضح أنه أخبر الرئيس التنفيذي لـOpenAI، سام ألتمان، أن الشركة يجب أن تركز على السلامة وتنفق المزيد من الوقت والموارد لمواجهة المخاطر التي يشكلها الذكاء الاصطناعي بدلا من الاستمرار في جعله أكثر ذكاء. وزعم أن ألتمان اتفق معه، لكن شيئا لم يتغير منذ ذلك الحين.

ويعد كوكوتايلو جزءا من مجموعة من المطلعين على OpenAI، الذين أصدروا مؤخرا رسالة مفتوحة تحث مطوري الذكاء الاصطناعي على تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات.

ودافعت OpenAI عن سجل السلامة الخاص بها وسط انتقادات الموظفين والتدقيق العام، قائلة إن الشركة فخورة بسجلها الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر كفاءة وأمانا، وتؤمن بنهجها العلمي لمعالجة المخاطر.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *