تصویر جعلی هوش مصنوعی از انفجار پنتاگون، منجر به افت بازار سهام شد
تصویر جعلی هوش مصنوعی از انفجار پنتاگون، منجر به افت بازار سهام شد

تصویر ساختگی از انفجار پنتاگون، نشان‌دهنده‌ی تأثیرات جهنم اطلاعات نادرستی است که می‌توان با هوش مصنوعی در فضای آنلاین گسترش داد.

دردسر تازه تیک پولی توییتر و هوش مصنوعی

انتشار یک عکس جعلی از انفجار پنتاگون که به‌احتمال بسیار زیاد با هوش مصنوعی ساخته شده بود، صبح امروز توجهات بسیاری از کاربران توییتر را به‌خود جلب کرد و همین وضعیت باعث شد بازار سهام برای مدت کوتاهی سقوط کند.

به گزارش زیرنویس،تصویری ساخته‌شده با هوش مصنوعی از حمله به وزارت دفاع آمریکا که توسط اکانت جعلی بلومبرگ منتشر شده بود، خیلی‌ها را به اشتباه انداخت.

همان‌طور که بسیاری حدس می‌زدند، ترکیب ابزارهای هوش مصنوعی مولد و فروش تیک آبی در توییتر باعث نشر خبری اشتباه پیرامون انفجار در وزارت دفاع آمریکا شد. بسیاری از اکانت‌های پرطرفدار هم فریب این اشتباه را خوردند و این خبر جعلی حتی به شبکه‌های تلویزیونی و رسانه‌های رسمی راه پیدا کرد.

روز دوشنبه تصویری جعلی از وقوع انفجار در پنتاگون که ظاهراً توسط ابزارهای هوش مصنوعی ساخته شده بود، در سطح اینترنت دست‌به‌دست می‌شد. اندکی بعد اکانت توییتر Bloomberg Feed که تیک آبی داشت، این تصویر را به اشتراک گذاشت و مدعی شد که در نزدیکی ساختمان وزارت دفاع انفجاری رخ داده است.

با توجه به اینکه نام این اکانت بسیار غلط‌انداز بود و به‌راحتی می‌شد آن را با اکانت‌های رسمی خبرگزاری بلومبرگ اشتباه گرفت، این شایعه بیش از قبل در فضای وب پخش شد. حتی شبکه خبری روسی RT هم این تصویر را به اشتراک گذاشت، اما بعداً اقدام به حذف توییت خود کرد.

انفجار پنتاگون, هوش مصنوعی, وزارت دفاع آمریکا - تصویر جعلی هوش مصنوعی از انفجار پنتاگون، منجر به افت بازار سهام شد

چندین اکانت توییتری با صدها هزار دنبال‌کننده مثل Deltaone ،OSINTdefender و Whale Chart هم اقدام به انتشار این خبر کردند. یک شبکه تلویزیونی در هند نیز گزارش نادرست انفجار در پنتاگون را به اطلاع مخاطبان خود رساند. اکانت Bloomberg Feed درنهایت از دسترس خارج شد و هنوز مشخص نیست که منبع اصلی انتشار این تصویر کجا بوده است. بااین‌حال، وزارت دفاع آمریکا اعلام کرده که این تصویر واقعی نیست.

با وجود هوش مصنوعی نمی‌توان به هیچ تصویری اعتماد کرد

این اولین‌باری نیست که یک تصویر جعلی به‌سرعت در شبکه‌های اجتماعی دست‌به‌دست می‌شود. پیش‌تر تصاویر جعلی دستگیری دونالد ترامپ، رئیس‌جمهور سابق آمریکا و پاپ فرانسیس با پوشاک بالنسیاگا هم منتشر شده بود. اما این احتمالاً نخستین‌باری است که تبعات جدی ابزارهای هوش مصنوعی مولد در کنار بستری که برای نشر اطلاعات نادرست در توییتر به‌وجود آمده است، در کنار یکدیگر موجب انتشار چنین دروغ بزرگی می‌شوند.

هفته گذشته مدیران شرکت‌های هوش مصنوعی ازجمله «سم آلتمن» از OpenAI به کنگره رفتند تا درباره خطرات این فناوری با قانون‌گذاران صحبت کنند. حالا باید دید که در آستانه انتخابات سال آینده ایالات‌متحده چه تدابیری برای جلوگیری از نشر این‌گونه اخبار نادرست اتخاذ خواهد شد.

منبع:دیجیاتو