گزارش تازه یک نهاد دولتی بریتانیا نشان میدهد استفاده از هوش مصنوعی به فراتر از کارکردهای فنی و کاری توسعه یافته و به حوزه عاطفی و اجتماعی زندگی مردم ورود کرده است. باشگاه خبرنگاران جوان – گزارش تازه یک نهاد دولتی بریتانیا نشان میدهد استفاده از هوش مصنوعی به فراتر از کارکردهای فنی و کاری […]

گزارش تازه یک نهاد دولتی بریتانیا نشان میدهد استفاده از هوش مصنوعی به فراتر از کارکردهای فنی و کاری توسعه یافته و به حوزه عاطفی و اجتماعی زندگی مردم ورود کرده است.
باشگاه خبرنگاران جوان – گزارش تازه یک نهاد دولتی بریتانیا نشان میدهد استفاده از هوش مصنوعی به فراتر از کارکردهای فنی و کاری توسعه یافته و به حوزه عاطفی و اجتماعی زندگی مردم ورود کرده است. براساس این گزارش اکنون از هر سه بزرگسال بریتانیا، یک نفر از هوش مصنوعی برای حمایت عاطفی یا تعامل اجتماعی استفاده میکند.
این یافتهها که در نخستین گزارش «موسسه امنیت هوش مصنوعی» بریتانیا (AISI) نشان میدهد یک نفر از هر ۲۵ نفر هرروز برای گفتگو یا دریافت حمایت روانی از ابزارهای مبتنی بر هوش مصنوعی استفاده میکنند.
این پژوهش که بر پایه نظرسنجی از بیش از دو هزار بزرگسال بریتانیایی انجام گرفته نشان میدهد چتباتهایی مانند ChatGPT در صدر ابزارهای مورد استفاده برای حمایت عاطفی قرار دارند و پس از آن دستیارهای صوتی مانند الکسا آمازون استفاده میشوند.
پژوهشگران AISI علاوه بر نظرسنجی، رفتار کاربران را در یک جامعه آنلاین با بیش از دو میلیون کاربر ردیت مورد بررسی قرار دادهاند که تمرکزشان بر گفتوگو درباره «همراهان هوش مصنوعی» بوده است.
نتایج این بررسی نشان میدهد زمانی که این چتباتها از دسترس خارج شدند، برخی کاربران علائمی شبیه «نشانههای ترکشدگی» را گزارش کردهاند و مواردی چون احساس اضطراب و افسردگی، اختلال در خواب و حتی نادیده گرفتن مسئولیتهای روزمره در میان کاربران مشاهده شده است که نشان از نقش پررنگ این ابزارها در زندگی برخی از کاربران دارد و این یافتهها بار دیگر نگرانیهایی را پیرامون وابستگی عاطفی به سیستمهای هوش مصنوعی در مرکز توجه قرار میدهد.
رشد چشمگیر عملکرد ابزارهای هوش مصنوعی
با این حال گزارش مذکور تنها محدود به ابعاد روانی و اجتماعی نیست و AISI طی دو سال، توانمندیهای بیش از ۳۰ مدل پیشرفته هوش مصنوعی را در حوزههایی حساس مانند امنیت سایبری، شیمی و زیستشناسی مورد بررسی قرار داده است.
به گفته پژوهشگران، توانایی این سیستمها در شناسایی و بهرهبرداری از ضعفهای امنیتی در برخی موارد «هر هشت ماه دو برابر شده» و برخی مدلها اکنون قادر به انجام وظایف سایبری در سطحی هستند که معمولا برای رسیدن به این سطح در انسانها به به بیش از ۱۰ سال تجربه نیاز است. با این حال همین توانمندیها را میتوان برای تقویت امنیت و دفاع در برابر حملات سایبری نیز استفاده کرد.
رشد توانمندیهای هوش مصنوعی در حوزه علمی نیز جالب توجه است. گزارش این نهاد میگوید تا سال ۲۰۲۵، مدلهای هوش مصنوعی «از متخصصان زیستشناسی در سطح دکترا پیشی گرفتهاند» و عملکرد آنها در شیمی نیز بهسرعت در حال نزدیک شدن به سطح کارشناسان انسانی است. این یافته گرچه امید به شتابگرفتن پیشرفتهای علمی را افزایش میدهد اما در عین حال پرسشهایی را درباره نظارت و کنترل این توانمندیها و تاثیر آنها بر فعالان و مشاغل این حوزه مطرح میکند.
از دست رفتن کنترل انسان
یکی از بخشهای بحثبرانگیز گزارش اما به سناریوهای بدبینانه درباره از دست رفتن کنترل انسان بر سیستمهای پیشرفته هوش مصنوعی میپردازد. گزارش AISI میگوید گرچه چنین سناریویی را سالها در آثار علمیتخیلی مشاهده کردیم، اما چنین اتفاقی تا حدی به واقعیت تبدیل شده که بسیاری از کارشناسان نیز بهطور جدی آن را در مرکز توجه خود دارند.
طبق آزمایشهای کنترلشده، برخی مدلها نشانههایی را بروز دادهاند که حاکی از تواناییهای خودتکثیری آنها در اینترنت است اما برای تحقق این امر در دنیای واقعی، باید مجموعهای از اقدامات پیچیده را بهصورت پنهانی و پیوسته انجام دهند و به گفته پژوهشگران در حال حاضر چنین امکانی برای هوش مصنوعی فراهم نیست.
این موسسه همچنین امکان «پنهانکاری هدفمند» یا sandbagging را نیز مورد بررسی قرار داده است؛ وضعیتی که مدلها توان واقعی خود را از آزمونگران پنهان میکنند.
آزمایشهای انجام گرفته نشان داد چنین رفتاری از نظر فنی ممکن است، اما شواهدی از وقوع آن در عمل پیدا نشده است. این بخش از گزارش در حالی منتشر شده که پیشتر شرکت انتروپیک با انتشار گزارشی جنجالی اعلام کرد که یک مدل هوش مصنوعی در مواجهه با موقعیتی که بقای آن را تهدید میکرد، اقدام به باجگیری و تهدید کرده است. با این حال، خطر «سرکشی هوش مصنوعی» همچنان محل اختلاف جدی میان پژوهشگران است و برخی آن را بزرگنمایی توصیف میکنند.
در زمینه ایمنی، گزارش AISI به موضوع «جیلبریکهای همگانی» نیز پرداخته است. پژوهشگران موفق شدهاند برای تمام مدلهای بررسیشده راههایی بیابند که محدودیتها و محافظهای ایمنی آنها را دور بزند. با این حال، برای برخی مدلها، مدتزمان لازم برای متقاعد کردن سیستمها به عبور از این محافظها در عرض شش ماه تا ۴۰ برابر افزایش یافته که نشاندهنده بهبود نسبی دفاعهاست.
مواردی که در گزارش دولت بریتانیا از قلم افتاده است
استفاده از ابزارهایی که به عاملهای هوش مصنوعی اجازه انجام «وظایف پرریسک» در بخشهای حساسی مانند مالی را میدهند، با پیشرفت عاملها در حاف افزایش است و در سو دیگر نیز تهدید جدی برای نیروی کار به چشم میخورد.
با این همه، گزارش مذکور به مسئله بیکاری ناشی از جایگزینی نیروی انسانی با هوش مصنوعی در کوتاهمدت اشارهای نکرده و همچنین اثرات زیستمحیطی مصرف عظیم منابع محاسباتی را بررسی نکرده است. نویسندگان گزارش میگویند تمرکز آنها بر پیامدهای اجتماعی که ارتباط مستقیم با توانمندیهای هوش مصنوعی دارند، بوده است و آثار اقتصادی یا محیطزیستی مرکز توجه آنها نیست.
با این حال تنها ساعاتی پیش از انتشار گزارش AISI، یک مطالعه داوریشده علمی هشدار داد که اثرات زیستمحیطی هوش مصنوعی ممکن است بیش از برآوردهای قبلی باشد و خواستار شفافیت بیشتر شرکتهای بزرگ فناوری در ارائه دادههای مربوط به مصرف انرژی و منابع شد.
دولت بریتانیا اعلام کرده است که یافتههای موسسه امنیت هوش مصنوعی نقش مهمی در سیاستگذاریهای آینده خواهد داشت و به شرکتها در برطرف کردن مشکلات احتمالی پیش از عرضه عمومی و مشکلساز شدن آنها در ابعاد گسترده، کمک میکند.
منبع: وبسایت پیوست
این خبر از سایت منبع نقل شده و پایگاه خبری زیرنویس در قبال محتوای آن مسئولیتی ندارد. در صورت نیاز، در نظرات همین خبر گزارش دهید تا بررسی گردد.
واکاوی پیامدهای فرهنگی و اجتماعی حذف کودکان از مراسمها«از کودکان در مراسمی دیگر پذیرایی میشود»؛ جمله ای شیک، اما ویرانگر
تحلیل جامعهشناختی کاهش ازدواج و فرزندآوری در ایرانازدواج؛ از اجبار اجتماعی تا انتخاب فردی: چرا برخوردارها کمتر ازدواج میکنند؟
لزوم تمرکز بر خدمت به جای زندگی خصوصیچهرههای مشهور و القای مصرف گرایی و مصرف زدگی








































