نورنیوز - گروه اجتماعی: اوپنایآی بهعنوان بخشی از مدل زبانی 4o، ابزار ساخت تصویر جدیدی برای چت جیپیتی معرفی کرد که توانایی چشمگیر و نگرانکنندهای در تولید رسیدهای پرداخت جعلی دارد.
کاربران از همین حالا از قابلیت مذکور برای ساخت رسیدهای جعلی خرید خود استفاده میکنند؛ ابزاری که میتواند به مجموعهی گستردهی فناوریهای دیپفیک مبتنیبر هوش مصنوعی اضافه شود و به کلاهبرداران کمک کند.
دیدی داس، یکی از کاربران فعال شبکههای اجتماعی و سرمایهگذار ریسکپذیر، تصویری از یک رسید جعلی در شبکهی اجتماعی ایکس منتشر کرد و مدعی شد که این تصویر با مدل 4o ساخته شده است.
کاربران نمونههای دیگری را هم در صفحات شخصی خود به اشتراک گذاشتهاند. تصاویر رسیدها بسیار واقعی بهنظر میرسند و تشخیص جعلیبودن آنها به سادگی امکانپذیر نیست.

با نگاهی دقیقتر به رسیدها میتوان به یکسری گافها پی برد؛ مثلا در مبلغ نهایی بهجای نقطه از ویرگول استفاده شده یا محاسبات درست نیست. مدلهای زبانی بزرگ همچنان در انجام محاسبات پایهای مشکل دارند؛ البته برای یک کلاهبردار کار سختی نخواهد بود که چند عدد را با استفاده از نرمافزارهای ویرایش تصویر یا حتی دستورات دقیقتر اصلاح کند.
کاملاً واضح است که سهولت در ایجاد رسیدهای جعلی میتواند فرصتهای بزرگی برای کلاهبرداری ایجاد کند. تصور اینکه افراد سودجو از هوش مصنوعی برای ساخت رسید تراکنشهای انجامنشده استفاده کنند، دشوار نیست.
تایا کریستینسون، سخنگوی اوپنایآی، اعلام کرد که تمام تصاویری که با چت جیپیتی تولید میشوند، دارای متادیتایی هستند که نشان میدهد این تصاویر ساخته هوش مصنوعی هستند. او افزود که اوپنایآی در صورت نقض سیاستهای استفاده، اقداماتی را انجام میدهد و همواره از بازخورد کاربران و کاربردهای دنیای واقعی درس میگیرد.
زومیت