سایر رسانهها: تکنوفوبیا و فن هراسی در مواجهه با پیشرفتهای فناورانه انسان همواره در میان جوامع وجود داشته است. این امر ریشههای گوناگونی دارد. یکی این است که انسان اساسا در مواجهه با تغییر دچار اضطراب میشود و نوع انسانها، میل به تغییرات اساسی در زندگی خود ندارند، ولو اینکه بعد از مدتی تاثیر مثبت آن تغییر را بچشند و از آن پس بدون آن مولفه تغییرآفرین، نتوانند زندگی کنند. دلیل دیگر این است که انسان خیالش از دست ساختههای خودش کاملا راحت نیست. اینکه این دست ساختهها روزی بتوانند از تسخیر انسان آزاد شوند و انسان را تحت سلطه خود درآورند، توهمی است که انسانها را میترساند. آنها خود آفریدههایی هستند که علیه خالق خود طغیان میکنند و ادیان براهیمی هم بر طغیان انسان علیه پروردگار خود، صحه میگذارند.
هرچند که در ادبیات دینی این طغیان همواره به خود انسانها آسیب میرساند و نه به خداوند. اما مهم این است که مسئله طغیان مخلوق در ذهن انسان، مسئلهای آشناست. از سوی دیگر انسانها خاطره دورانی را دارند که در آن مقهور طبیعت بودند. انسان امروز خود را بر طبیعت چیره و مسلط میدید، اما هزاران سال پیش، بشر در مواجهه با طبیعت سراسر ناتوانی بود. در دوره انسانهای نخستین این ناتوانی بسیار بیشتر هم بود.
پس بازگشت انسان به دوره مقهوریت، انسان مدرن را با هراس مواجه میسازد. اما این فن هراسی در مورد دو فناوری نوین، خود را بسیار بیشتر و جدی تر نشان میدهد. این دو فناوری عبارت است از هوش مصنوعی و متاورس.
هوش مصنوعی، با ترس انسان از خودساخته رابطه بسیار زیادی دارد. چراکه این ابزار میتواند از مهمترین قوه و قدرت انسان بهرهمند گردد، قوه تعقل. انسان خود را به نطق و عقل میشناسد. او در رویا یا واقعیت، با همین قوه تعقل میتواند موجوداتی بزرگتر از خود، توانمندتر از خود و خطرناکتر از خود را نابود کند. انسان خود را مدیون عقل و هوشش میداند و دستیابی یک موجود دیگر به این ابزار، حتی در دل تکنولوژیستترین افراد هم برای لحظهای تردید و اضطراب وارد میسازد. چنانکه میبینیم ترس از رباتها و شورش آنها علیه انسان همواره دستمایه داستانهای علمی و تخیلی بوده است. اما حتی اگر این افقهای تاریک را در نظر نگیریم و هوش مصنوعی را به شکل امروزیاش منحصر بدانیم، باز هم نمیتوان از چالشها و آسیبهای آن آسوده خاطر بود.
بشر امروز با انواع معضلاتی که تکنولوژی برایش به ارمغان آورده دست و پنجه نرم میکند. او میداند که اینترنت، چه در سطح فردی، چه در سطح اجتماعی و چه در سطح ملی، چه خطرهایی آفرید و با این تجربه، دیگر نمیتواند نسبت به فناوریهای نوپدید خوش بینی کودکانه قدیمی اش را داشته باشد. از این رو از همان ابتدای مطرح شدن فناوری هوش مصنوعی، ارباب فناوری نسبت به خطرات آن مشغول اظهار نظر هستند.
وبگاه مجمع جهانی اقتصاد اخیرا طی یادداشتی کوتاه به بررسی نگرانیها و راهکارهای متولیان حوزه امنیت سایبری در مواجهه با هوش مصنوعی پرداخته است. آشکار شدن روزافزون ظرفیتهای تحول آفرین هوش مصنوعی مولد، بحث و گفتوگو درباره خطرات و نگرانیهای مرتبط با پیشرفتهای آینده این فناوری را داغ کرده است.
وابسته شدن جوامع به هوش مصنوعی، از کنترل خارج شدن سیستمها، عدم تطابق اهداف فناوری با ارزشهای انسانی و چشم انداز رقابت در پرتو این فناوری، در زمره موضوعاتی هستند که نقل محافل کارشناسی شدهاند.
به عقیده کارشناسان، رهبران امنیت سایبری علاوه بر ضرورت بررسی خطرات بلندمدت این فناوری با خطرات مختلف و فوری برای پذیرش گسترده سیستمهای هوش مصنوعی مولد روبه رو هستند. نمونههای بسیاری از نقض و درز اطلاعات از طریق این سیستمها، مانند حادثه آپلود ناخواسته کد منبع داخلی شرکت سامسونگ در «ChatGPT»، نشان میدهد، چگونه پیشرفتهای هوش مصنوعی موجب ایجاد آسیب پذیریهای جدید برای امنیت سایبری میشود. با توجه به این که رهبران امنیت سایبری جهان باید اقدامات فوری برای برطرف کردن این نگرانیها انجام دهند، مشخص کردن شاخصترین مسائل این حوزه ضروری است.
نگرانیهای مدیران ارشد امنیت اطلاعات (CISO) درباره پیشرفت های اخیر هوش مصنوعی قابلیت های هوش مصنوعی مولد هزینه توسعه و راه اندازی حملات سایبری مانند فیشینگ، تولید کدهای مخرب و جعل عمیق را کاهش و امکان خودکارسازی و انجام چنین حملاتی را افزایش می دهد. بنابراین، هوش مصنوعی مولد، تشخیص و سوءاستفاده از آسیب پذیری ها و شکاف های امنیتی را برای مجرمان سایبری آسان تر می کند.
استفاده نادرست از سیستم های هوش مصنوعی مولد طیفی از چالش ها، از جمله افشای ناخواسته اطلاعات حساس، را به همراه دارد. همچنین ممکن است، استفاده از اطلاعات محرمانه به طور عمدی یا سهوی برای آموزش سیستم های هوش مصنوعی مولد، محرمانگی داده ها را به چالش بکشد. این خطر نیز وجود دارد که سیستم های هوش مصنوعی مولد کارهایی را که قرار نیست، انجام دهند، برای مثال تزریق پرسش می تواند، منجر به ارائه نتایج نامطلوب شود.
اثبات یکپارچگی مدل های هوش مصنوعی دشوار است. کدهای پیچیده ای که برای توسعه مدل ها استفاده می شوند، همیشه به طور کامل، حتی توسط خود توسعه دهندگان، درک نمی شوند. این مسئله منجر به عدم شفافیت سیستم ها می شود و اعتماد به آن ها را سخت تر می کند. علاوه بر این، رویکرد امنیتی جامع و کنترل های کافی نیز در طراحی و توسعه سیستم های هوش مصنوعی مولد وجود ندارد.هزینه پیشرفت هوش مصنوعی مولد چند وجهی است و مربوط به خرید، توسعه و پیاده سازی این سیستم ها می شود. علاوه براین، افزایش مصرف انرژی ارتباط تنگاتنگی با میزان استفاده از سیستم های هوش مصنوعی دارد. هزینه های مازادی نیز وجود دارد که مربوط به تیم امنیت سایبری برای ارتقای مهارت کارکنان، راه اندازی کمپین های آگاه سازی و توسعه راه های جدید برای ایمن سازی این سیستم ها می شود.
اقدامات کارآمد در مواجهه با چالش های جدید مرتبط با هوش مصنوعی
سازمان های بسیاری درحال برداشتن گام های ابتدایی برای مدیریت مسائل نوظهور در رابطه با پیامدهای توسعه سیستم های هوش مصنوعی مولد در حوزه امنیت سایبری و فراتر از آن هستند؛ اما به اقدامات بسیار بیشتری برای درک جامع این پیامدها و پرداختن به آن ها نیاز است که در ادامه به آن ها اشاره می شود:
تشویق کارمندان به آزمون و خطا، بحث و اشتراک دیدگاه ها و نگرانی ها درباره این فناوری به پذیرش موفقیت آمیز، پرورش فرهنگ تعامل و نوآوری های مرتبط با فناوری هوش مصنوعی کمک می کند.ایجاد کارگروه های هدفمند در راستای رسیدگی به چالش های اولویت دار، از حفظ مالکیت معنوی گرفته تا تهدیدات داخلی، اقدامی کارآمد در مسیر مواجهه با چالش های یاد شده محسوب می شود.تعریف اصول و خطوط راهنما برای استفاده از سیستم های هوش مصنوعی که توسط تیم های میان رشته ای در بخش های امنیت سایبری، فناوری اطلاعات، حقوقی، منابع انسانی، حفاظت از داده ها و... تدوین شده اند، نقشی کلیدی در این مواجهه ایفا می کنند.
اجرای برنامه های آموزش هوش مصنوعی و آگاهی در سطح سازمان برای تقویت استفاده مسئولانه از ابزارها و درک خطرات مرتبط با توسعه هوش مصنوعی، در این شرایط، امری حیاتی محسوب می شود.تجدید نظر در استراتژی ها و سیاست های امنیت سایبری موجود برای مقابله با تهدیدات سایبری نوظهور مرتبط با پیشرفت های هوش مصنوعی، از جمله الزام کارکنان به افشای استفاده از ابزارهای مولد هوش مصنوعی و محدود کردن استفاده از آن ها یا ارائه دستورالعمل هایی درباره نحوه به کارگیری آن ها، گام کارآمد دیگری در این عرصه محسوب می شود.با تغییر ماهیت و شکل بروز تهدیدات سایبری در عصر توسعه هوش مصنوعی، تطبیق کنترل های امنیت سایبری با توجه به تغییر چشم انداز مخاطرات، امری الزامی و حیاتی به شمار می رود.
ضرورت اقدام چند ذینفع
در اکثر سازمان ها اقدامات اولیه ای انجام شده است که رویکردهای تاکتیکی و مجزایی را دنبال می کند. گذر به رویکردی جامع برای رسیدگی به پیامدهای امنیت سایبری ناشی از هوش مصنوعی مولد به تازگی آغاز شده است. به عقیده کارشناسان، ایجاد مبانی امنیت سایبری برای هوش مصنوعی مولد لازمه ایجاد هوش مصنوعی قابل اعتماد، اخلاقی و مسئولانه است.در این چشم انداز، رهبران امنیت سایبری در موقعیت هایی از جمله شناسایی و استفاده از پتانسیل دفاعی هوش مصنوعی، شفاف سازی حکمرانی خطرات امنیت سایبری و ارائه اطلاعات درباره مقرراتی قرار می گیرند که برای اطمینان از پذیرش و استفاده ایمن از این فناوری لازم است.بدون شک، اتخاذ رویکردی جامع و چند ذینفع برای هدایت استفاده از هوش مصنوعی مولد ضروری است. همکاری سازمان ها، قانون گذاران و فناوران می تواند، به استفاده مسئولانه از قدرت تحول آفرین این پیشرفت های تکنولوژیک بینجامد و آینده دیجیتالی بشر را تضمین کند. مجمع جهانی اقتصاد، در همین راستا، ائتلاف حکمرانی هوش مصنوعی را در ژوئن 2023، با هدف ارائه راهنمایی درباره طراحی و توسعه و استقرار مسئولانه سیستم های هوش مصنوعی تشکیل داد.
رسالت