در یک تماس تلفنیِ هولناک، مادری صدای ضجه‌های دخترش را شنید که تقاضای کمک می‌کرد؛ صدایی که از نظر لحن و فرکانس هیچ تفاوتی با واقعیت نداشت. باشگاه خبرنگاران جوان – جنیفر دستافانو، ساکن آریزونا، زمانی که گوشی را برداشت، با صدای لرزان دختر پانزده‌ساله‌اش رو‌به‌رو شد که او را با التماس «مامان» صدا می‌زد. […]


در یک تماس تلفنیِ هولناک، مادری صدای ضجه‌های دخترش را شنید که تقاضای کمک می‌کرد؛ صدایی که از نظر لحن و فرکانس هیچ تفاوتی با واقعیت نداشت.

باشگاه خبرنگاران جوان – جنیفر دستافانو، ساکن آریزونا، زمانی که گوشی را برداشت، با صدای لرزان دختر پانزده‌ساله‌اش رو‌به‌رو شد که او را با التماس «مامان» صدا می‌زد.

جنیفر بعدتر توضیح داد که تن صدا و شیوه بیان کلمات به قدری واقعی بود که حتی یک لحظه هم به اصالت آن شک نکرد.

مدتی بعد، مردی که خود را وکیل معرفی می‌کرد، تماس را قطع کرد و با تهدید به قتل دختر، تقاضای پول فوری برای آزادی او کرد. جنیفر در میان ترس و بن‌بستِ فکری، گوشی را محکم گرفته بود و در حالی که به دنبال راهی برای نجات فرزندش می‌گشت، در نوسانی میان جنون و عمل دست‌وپا می‌زد.

خوشبختانه این پایانِ تلخ با یک تماسِ جانبی تغییر کرد و جنیفر فهمید که دخترش در سفر اسکی و در سلامت کامل است.

این حادثه در آوریل ۲۰۲۳ میلادی، زنگ خطر پدیده‌ای را به صدا درآورد که بعد‌ها «کلاهبرداری صوتی با هوش مصنوعی» نام گرفت و والدین را با پرسشی هولناک رو‌به‌رو کرد.

وقتی اسباب‌بازی‌ها در سال ۲۰۱۵ جاسوس شدند

برای درک ریشه این فاجعه، باید به سال ۲۰۱۵ میلادی بازگشت؛ زمانی که شرکت «متل» عروسکی به نام «هلو باربی» را با افتخار به بازار معرفی کرد. این عروسک مجهز به میکروفنی بود که صدای کودکان را ضبط و به سرور‌های ابری می‌فرستاد تا پاسخ‌هایی هوشمندانه دریافت کند. در همان زمان، مدافعان حقوق کودکان فریاد زدند که این اسباب‌بازی فقط حرف نمی‌زند، بلکه در حال ذخیره‌سازیِ بی‌اجازه صدایِ نسلی است که هیچ درکی از داده ندارد.

والدین، اما با بی‌خیالی و به تصور امنیتِ کامل، دکمه «موافقم» را در اپلیکیشن‌ها می‌زدند و صدای فرزندشان را راهیِ ابر‌ها می‌کردند.

بازار اسباب‌بازی‌های هوشمند به سرعت گسترش یافت و شرکت‌هایی مانند وی‌تِک «Vtech» و کلاودپِتس «CloudPets» نیز به این جرگه پیوستند. صدا‌ها دیگر فقط یک تجربه گذرا در اتاق کودک نبودند؛ آنها به فایل‌های دیجیتالی تبدیل شدند که در دیتابیس‌های ضعیف و بدون حفاظِ شرکت‌ها، منتظرِ یک جرقه بودند.

نفوذ بزرگ و حراج صدای ۳ میلیون کودک

در نوامبر ۲۰۱۵ میلادی، سیستم‌های شرکت وی‌تِک مورد نفوذ گسترده قرار گرفت و اطلاعات میلیون‌ها پروفایل کودک و والد در دسترس مهاجمان قرار گرفت.

تروی هانت، پژوهشگر امنیت سایبری، فاش کرد که رمز‌های عبور و فایل‌های صوتی با ابتدایی‌ترین روش‌های ممکن محافظت می‌شدند.

دو سال بعد در فوریه ۲۰۱۷ میلادی، فاجعه دیگری برای کلاودپِتس رخ داد و میلیون‌ها پیام صوتی کودکان بدون هیچ رمز عبوری در اینترنت رها شد.

صدا‌ها که قرار بود در حریم خصوصی اتاق باقی بمانند، اکنون به فایل‌های قابل کپی و انتقال تبدیل شده بودند که هر کسی می‌توانست آنها را دانلود کند.

این زنجیره از بی‌احتیاطی‌های فنی، انبار بزرگی از «ماده خام» را برای تبهکاران آینده فراهم کرد. صدا‌هایی که سال‌ها پیش ضبط شده بودند، اکنون به فایل‌های ماندگاری تبدیل گشتند که پتانسیل بازتولید در سال‌های بعد و با تکنولوژی‌های پیشرفته‌تر را داشتند.

فناوری مولد؛ چهار ثانیه برای سرقت هویت

با آغاز دهه ۲۰۲۰ میلادی، متغیر جدیدی به نام «هوش مصنوعی مولد صدا» وارد این معادله خطرناک شد و ترس‌ها را به واقعیت بدل کرد. آزمایشگاه‌های امنیتی نظیر مک‌آفی فاش کردند که تنها با داشتن ۳ تا ۴ ثانیه نمونه صوتی، می‌توان مدلی با دقت ۸۰ درصد برای بازتولید آن صدا ساخت. ابزار‌های شبیه‌سازی که پیش‌تر در آزمایشگاه‌های فوق‌سری بودند، اکنون به صورت تجاری و حتی رایگان در دسترس عموم قرار گرفتند.

این فناوری به کلاهبرداران اجازه داد تا از آرشیو‌های قدیمیِ اسباب‌بازی‌ها و ویدئو‌های شبکه‌های اجتماعی، برای ساختن «صدای گروگان‌های فرضی» استفاده کنند.

تماس جنیفر در سال ۲۰۲۳ میلادی، اولین سیلیِ واقعیت به صورتِ قانون‌گذاران بود که نشان داد «صدا» دیگر یک شناسه هویتِ قابل اعتماد نیست. در سنای آمریکا، جنیفر شهادت داد که چگونه شنیدن صدای فرزندش، تمام سیستم‌های دفاعی و منطقی ذهن او را در یک لحظه از کار انداخته است.

سقوط شارون برایت‌ول در تله ۱۵ هزار دلاری

در تابستان سال ۲۰۲۵ میلادی، پرونده دیگری در فلوریدا ورق خورد که این‌بار با خسارت مالی سنگین‌تری برای «شارون برایت‌ول» همراه بود.

او تماسی دریافت کرد که شماره‌اش دقیقاً شبیه شماره دخترش بود و صدایی مضطرب و گریان از آن سوی خط ادعا می‌کرد که تصادف کرده است.

دقایقی بعد فردی که خود را وکیل معرفی می‌کرد، برای حل فوریِ این «مشکل»، تقاضای ۱۵ هزار دلار پول نقد کرد. شارون بعد‌ها با چشمانی گریان گفت که هیچ‌کس نمی‌توانست او را متقاعد کند که این صدایِ واقعیِ دخترش نیست، چرا که تمام جزئیاتِ صوتی مو به مو رعایت شده بود. او پول را پرداخت کرد و تنها پس از پایان معامله فهمید که تمام آن اضطراب و گریه‌ها، ساخته و پرداخته یک الگوریتم هوشمند بوده است.

این بخش از پازل اکنون کامل شده بود: از ضبط صدا در اسباب‌بازی‌های قدیمی تا سرقتِ واقعیِ پول در سال ۲۰۲۵ میلادی.

جریمه‌های دیرهنگام و مسئولیت‌های گم‌شده

نهاد‌های نظارتی مانند FTC پس از افشای افتضاح وی‌تِک در سال ۲۰۱۸ میلادی، این شرکت را به جریمه ناچیز ۶۵۰ هزار دلاری محکوم کردند. این اقدام اگرچه یک پیروزی حقوقی بود، اما در حقیقت نوشدارویی بعد از مرگ سهراب و مربوط به نشتِ داده‌هایی بود که دیگر در سراسر وب پخش شده بودند.

چالش اصلی اکنون این است که مسئولیت استفاده ثانویه از صدایی که سال‌ها پیش با رضایت والدین ضبط شده، بر عهده کیست؟ قانون‌گذاران در برابر این پرسشِ سخت قرار دارند که آیا شرکت سازنده اسباب‌بازی باید تاوان سوءاستفاده‌های هوش مصنوعی در دهه‌های بعد را بپردازد یا خیر.

صدا در گزارش‌های امنیتی قدیمی یک داده ساده تلقی می‌شد، اما اکنون به عنوان یک «شناسه حسی» شناخته می‌شود که با غریزه بقا گره خورده است.

برای یک والد، صدای فرزند نشانه حیات است و به همین دلیل وقتی این صدا ابزار فریب می‌شود، آسیب روانی آن جبران‌ناپذیر است.

پایانِ بازِ اعتماد در دنیایِ صداهایِ کپی‌شده

امروزه اسباب‌بازی‌ها هوشمندتر شده‌اند و اپلیکیشن‌ها با حرص و ولع بیشتری به مکالمات خانوادگی ما گوش می‌دهند تا الگوریتم‌هایشان را تقویت کنند.

والدین هنوز هم بدون مطالعه، دکمه‌های «موافقم» را لمس می‌کنند، در حالی که نمی‌دانند صدای فرزندشان قرار است در کدام دیتابیسِ بدون قفل ذخیره شود.

تجربه تلخ جنیفر و شارون ثابت کرد که در جهانی که صدا قابل کپی است، گوش‌ها دیگر منبع معتبری برای تشخیص حقیقت نیستند. هوش مصنوعی هر روز سریع‌تر یاد می‌گیرد و ما هر روز بخش بیشتری از هویت صوتی خود را در فضای ابری رها می‌کنیم.

کودکان امروز وقتی بزرگ شوند، شاید با نسخه‌های دیجیتالی از گذشته خود رو‌به‌رو شوند که هرگز قرار نبود از آن اتاق کوچک بیرون برود.

این روایتِ ناتمام، هشداری است به جهانی که در آن مرز میان «انسان واقعی» و «شبیه‌ساز ماشینی» به نازکی یک تار مو شده است.

منبع: فارس

منبع: باشگاه خبرنگاران

این خبر از سایت منبع نقل شده و پایگاه خبری زیرنویس در قبال محتوای آن مسئولیتی ندارد. در صورت نیاز، در نظرات همین خبر گزارش دهید تا بررسی گردد.

«از کودکان در مراسمی دیگر پذیرایی می‌شود»؛ جمله ای شیک، اما ویرانگر ۲۹ آذر ۱۴۰۴

واکاوی پیامدهای فرهنگی و اجتماعی حذف کودکان از مراسم‌ها«از کودکان در مراسمی دیگر پذیرایی می‌شود»؛ جمله ای شیک، اما ویرانگر

ازدواج؛ از اجبار اجتماعی تا انتخاب فردی: چرا برخوردارها کمتر ازدواج می‌کنند؟ ۲۲ آذر ۱۴۰۴

تحلیل جامعه‌شناختی کاهش ازدواج و فرزندآوری در ایرانازدواج؛ از اجبار اجتماعی تا انتخاب فردی: چرا برخوردارها کمتر ازدواج می‌کنند؟

چهره‌های مشهور و القای مصرف گرایی و مصرف زدگی ۱۷ آبان ۱۴۰۴

لزوم تمرکز بر خدمت به جای زندگی خصوصیچهره‌های مشهور و القای مصرف گرایی و مصرف زدگی

زیرنویس را در شبکه‌های اجتماعی همراهتان داشته باشید