نورنیوز https://nournews.ir/n/193864
کد خبر: 193864
22 مهر 1403

بالاخره هوش مصنوعی برای بشر خطرناک است یا خیر؟


«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخوانده‌های هوش مصنوعی است درمورد خطرات توسعه بی‌قاعده این فناوری هشدار داده و آن را به ساخت هیولاهایی تشبیه کرده که از انسان قوی‌ترند اما دانشمند ارشد متا گفته تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است.

نورنیوز-گروه اقتصادی: «یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخوانده‌های هوش مصنوعی نیز شناخته می‌شود، درمورد خطرات توسعه بی‌قاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده که از انسان قوی‌ترند.

 یاشوا بنجیو ازجمله افرادی است که بخش عمده‌ای از دوران حرفه‌ای خود را به تحقیق درمورد شبکه‌های عصبی و الگوریتم‌های یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبه‌ای اختصاصی با یاهو فاینانس این نگرانی‌ها را بیان کرده است.

بالاخره+هوش+مصنوعی+برای+بشر+خطرناک+است+یا+خیر؟
 به گفته بنجیو، هوش نوعی قدرت است و هرکسی بتواند این قدرت را در سطح انسانی یا بالاتر کنترل کند، بسیار بسیار قدرتمند خواهد بود. او در ادامه گفت:  «عموماً افرادی از فناوری استفاده می‌کنند که خواهان قدرت بیشتر هستند؛ تسلط اقتصادی، تسلط نظامی، تسلط سیاسی. قبل از ایجاد فناوری که بتواند قدرت را به روش‌های خطرناک متمرکز کند، باید بسیار مراقب باشیم.»

 یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم؟ گفت:  «اگر این [هوش مصنوعی] به دست افراد نادرست بیفتد، می‌تواند بسیار خطرناک باشد. این ابزارها می‌توانند به‌زودی به کمک تروریست‌ها و بازیگران دولتی بیایند که می‌خواهند دموکراسی‌های ما را نابود کنند. مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کرده‌اند، نحوه آموزش هوش مصنوعی است. ما به‌وضوح نمی‌دانیم چگونه می‌توانیم از استقلال این سیستم‌ها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستم‌ها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولاهایی بسازیم که از ما قدرتمندتر بشوند.»

 تاامروز افراد زیادی از حوزه فناوری و دانشمندان نگرانی‌هایشان درمورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کرده‌اند؛ برای مثال، بیل گیتس به‌تازگی سه نگرانی بزرگ خود درمورد هوش مصنوعی را علنی کرده است. در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفته‌تر و بیشتری نیاز دارد و حتی باید سرمایه‌گذاری‌های بیشتری روی ساخت دیتاسنترهای هوش مصنوعی انجام شود.

دانشمند ارشد متا: تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است

اما در این میان دانشمند ارشد متا می‌گوید نگرانی درباره تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است

«یان لکان»، دانشمند ارشد هوش مصنوعی متا در مصاحبه جدیدی گفته است فکر نمی‌کند هوش مصنوعی واقعاً در آستانه عبور از هوشمندی انسان باشد و نگرانی‌های مربوط به تهدید وجودی این فناوری از نظر او «کاملاً مزخرف» هستند.

او درباره خطرات بالقوه هوش مصنوعی برای بشریت گفت: «باید مرا ببخشید اما این موضوع مزخرف کامل است.»

بالاخره هوش مصنوعی برای بشر خطرناک است یا خیر؟
لکان در استدلال خود می‌گوید مدل‌های زبانی بزرگ امروزی برخی قابلیت‌های کلیدی مانند حافظه مداوم، استدلال، برنامه‌ریزی و درک دنیای فیزیکی را ندارد. از نظر او، مدل‌های زبانی بزرگ (LLM) صرفاً نشان می‌دهند «شما می‌توانید زبان را دستکاری کنید» و هرگز به هو‌ش جامع مصنوعی (AGI) واقعی منجر نمی‌شود.

البته این‌طور نیست که او کاملاً به دستیابی به AGI بدبین باشد اما به عقیده دانشمند ارشد متا، برای توسعه آن نیاز به رویکردهای جدید است؛ برای مثال، او به کار روی هضم‌کردن ویدیوها توسط تیم تحقیقاتی بنیادی هوش مصنوعی خود در متا اشاره کرده است.

لکان سال 2018 به‌خاطر «پیشرفت‌های مفهومی و مهندسی که شبکه‌های عصبی عمیق را به بخش مهمی از محاسبات تبدیل کرده است» همراه «یوشوا بنجیو» و «جفری هینتون» جایزه تورینگ را دریافت کرد.

نظر متفاوت سایر پیشگامان حوزه هوش مصنوعی

هفته گذشته، هینتون همراه «جان جی. هاپفیلد» (John J. Hopfield) برای اکتشافات و اختراعات بنیادی در حوزه یادگیری ماشینی، جایزه نوبل فیزیک 2024 را دریافت کرد. پس از این مصاحبه، هینتون که او را «پدرخوانده هوش مصنوعی» می‌نامند، در مصاحبه‌ای گفته بود با این جایزه، ممکن است مردم نگرانی‌هایش درباره هوش مصنوعی را بیشتر درک کنند.

هینتون چند ماه قبل گفته بود اکنون که هوش این فناوری بسیار کمتر از انسان است، باید آزمایش‌های مختلفی انجام بدهند تا راه‌هایی برای کنترل آن در آینده به وجود بیاید.

«یاشوا بنجیو»، دیگر پدرخوانده هوش مصنوعی، نیز به‌تازگی در مصاحبه‌ای اختصاصی با یاهو فاینانس درباره خطرات توسعه بی‌قاعده این فناوری صحبت کرد و این کار را به ساخت هیولاهایی تشبیه کرد که از انسان‌ها قوی‌تر خواهند بود.


منبع: نورنیوز
سرویس: اقتصادی
کلید واژگان: هوش مصنوعی / تهدید بشر / یاشوا بنجیو / یان لکان