نورنیوز-گروه اقتصادی: «یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود، درمورد خطرات توسعه بیقاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده که از انسان قویترند.
یاشوا بنجیو ازجمله افرادی است که بخش عمدهای از دوران حرفهای خود را به تحقیق درمورد شبکههای عصبی و الگوریتمهای یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبهای اختصاصی با یاهو فاینانس این نگرانیها را بیان کرده است.
به گفته بنجیو، هوش نوعی قدرت است و هرکسی بتواند این قدرت را در سطح انسانی یا بالاتر کنترل کند، بسیار بسیار قدرتمند خواهد بود. او در ادامه گفت: «عموماً افرادی از فناوری استفاده میکنند که خواهان قدرت بیشتر هستند؛ تسلط اقتصادی، تسلط نظامی، تسلط سیاسی. قبل از ایجاد فناوری که بتواند قدرت را به روشهای خطرناک متمرکز کند، باید بسیار مراقب باشیم.»
یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم؟ گفت: «اگر این [هوش مصنوعی] به دست افراد نادرست بیفتد، میتواند بسیار خطرناک باشد. این ابزارها میتوانند بهزودی به کمک تروریستها و بازیگران دولتی بیایند که میخواهند دموکراسیهای ما را نابود کنند. مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کردهاند، نحوه آموزش هوش مصنوعی است. ما بهوضوح نمیدانیم چگونه میتوانیم از استقلال این سیستمها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستمها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولاهایی بسازیم که از ما قدرتمندتر بشوند.»
تاامروز افراد زیادی از حوزه فناوری و دانشمندان نگرانیهایشان درمورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کردهاند؛ برای مثال، بیل گیتس بهتازگی سه نگرانی بزرگ خود درمورد هوش مصنوعی را علنی کرده است. در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفتهتر و بیشتری نیاز دارد و حتی باید سرمایهگذاریهای بیشتری روی ساخت دیتاسنترهای هوش مصنوعی انجام شود.
دانشمند ارشد متا: تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است
اما در این میان دانشمند ارشد متا میگوید نگرانی درباره تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است
«یان لکان»، دانشمند ارشد هوش مصنوعی متا در مصاحبه جدیدی گفته است فکر نمیکند هوش مصنوعی واقعاً در آستانه عبور از هوشمندی انسان باشد و نگرانیهای مربوط به تهدید وجودی این فناوری از نظر او «کاملاً مزخرف» هستند.
او درباره خطرات بالقوه هوش مصنوعی برای بشریت گفت: «باید مرا ببخشید اما این موضوع مزخرف کامل است.»
لکان در استدلال خود میگوید مدلهای زبانی بزرگ امروزی برخی قابلیتهای کلیدی مانند حافظه مداوم، استدلال، برنامهریزی و درک دنیای فیزیکی را ندارد. از نظر او، مدلهای زبانی بزرگ (LLM) صرفاً نشان میدهند «شما میتوانید زبان را دستکاری کنید» و هرگز به هوش جامع مصنوعی (AGI) واقعی منجر نمیشود.
البته اینطور نیست که او کاملاً به دستیابی به AGI بدبین باشد اما به عقیده دانشمند ارشد متا، برای توسعه آن نیاز به رویکردهای جدید است؛ برای مثال، او به کار روی هضمکردن ویدیوها توسط تیم تحقیقاتی بنیادی هوش مصنوعی خود در متا اشاره کرده است.
لکان سال 2018 بهخاطر «پیشرفتهای مفهومی و مهندسی که شبکههای عصبی عمیق را به بخش مهمی از محاسبات تبدیل کرده است» همراه «یوشوا بنجیو» و «جفری هینتون» جایزه تورینگ را دریافت کرد.
نظر متفاوت سایر پیشگامان حوزه هوش مصنوعی
هفته گذشته، هینتون همراه «جان جی. هاپفیلد» (John J. Hopfield) برای اکتشافات و اختراعات بنیادی در حوزه یادگیری ماشینی، جایزه نوبل فیزیک 2024 را دریافت کرد. پس از این مصاحبه، هینتون که او را «پدرخوانده هوش مصنوعی» مینامند، در مصاحبهای گفته بود با این جایزه، ممکن است مردم نگرانیهایش درباره هوش مصنوعی را بیشتر درک کنند.
هینتون چند ماه قبل گفته بود اکنون که هوش این فناوری بسیار کمتر از انسان است، باید آزمایشهای مختلفی انجام بدهند تا راههایی برای کنترل آن در آینده به وجود بیاید.
«یاشوا بنجیو»، دیگر پدرخوانده هوش مصنوعی، نیز بهتازگی در مصاحبهای اختصاصی با یاهو فاینانس درباره خطرات توسعه بیقاعده این فناوری صحبت کرد و این کار را به ساخت هیولاهایی تشبیه کرد که از انسانها قویتر خواهند بود.
نورنیوز