عطنا - اخیرا وزارت امور خارجه آمریکا خبری منتشر کرده که فرد ناشناسی با استفاده از هوش مصنوعی، صدای مارکو روبیو، وزیر امور خارجه این کشور را جعل کرده و با دستکم پنج فرد برجسته، شامل سه وزیر خارجه، از طریق پیامرسان سیگنال (Signal) تماس گرفته است. این فرد با استفاده از یک حساب جعلی در سیگنال که شبیه به ایمیل رسمی ساخته شده بود، در اواسط ژوئن اقدام به ارسال پیام و گذاشتن پیام صوتی کرده است.
هرچند این تلاشها در نهایت ناموفق و از نظر فنی «غیرپیشرفته» ارزیابی شدند، اما نگرانیهایی جدی در محافل آمریکایی در زمینه امنیت سایبری ایجاد کردهاند. مقامات هنوز هویت این شخص را نمیدانند، اما معتقدند هدف او فریب مقامات برای دسترسی به اطلاعات حساس بوده است. این ماجرا در ادامه سوءاستفادههای پیشین از فناوری هوش مصنوعی برای جعل صدای چهرههای سیاسی رخ میدهد، از جمله تماسهای جعلی منتسب به جو بایدن در جریان انتخابات ۲۰۲۴ آمریکا.
با گسترش هر چه بیشتر کیفیت محصولات هوش مصنوعی در حوزه صوت و زبان فارسی احتمال پدید آمدن خطرهای مشابهی (تقلید صدای مقامات) در حال افزایش است. در بستر کشورهای در حال توسعه که به صورت میانگین سواد دیجیتال پایینتر و حساسیت کمتری نسبت به پیامدهای منفی و پیچیده بکارگیری هوش مصنوعی (به طور عمومی فناوری) و نتایج استفاده از آن وجود دارد، امکان چنین اتفاقاتی به طور قابل ملاحظهای بالاتر است.
تصور کنید که کسی صدای استاندار یک استان را تقلید کند و به یک فرد عادی در شهر زنگ بزند و درخواستی از او بکند، برای مثال میزان پولی را برای کسی واریز کند یا نامهای را از جایی به دست کسی برساند. یا تصور کنید کسی صدای مدیرعامل یک شرکت بورسی را تقلید کند که به دوستان خود توصیهای مالی دارد و این خبر و صوت در میان شبکه فعالان بورسی پخش شود یا فرض کنید کسی با تقلید صدای یک فرمانده نیروی انتظامی یک منطقه از مردم یک محل خاص بخواهد خانه و کاشانه خود را ترک کنند چراکه ممکن است مورد حمله قرار گیرند یا به اشتباه نسبت به شرایط بد آب و هوایی هشدار بدهد و هزاران هزاران نمونه دیگر که میتواند اتفاق بیفتد. حتی تصور برداشت اشتباه تماس یا پیامی از سمت دوستان و آشنایان هم دور از انتظار نیست هر چه که از نظر فنی هنوز با آن فاصله معناداری داریم.
چارچوبهای حکمرانی هوش مصنوعی (حتی در کشورهای پیشرفته و توسعهیافته) عموما توانایی جلوگیری از چنین رخدادهایی را حداقل در بازه کوتاه مدت ندارند و تجربه کشورهای اروپایی خود تا حدی موید این ماجراست. به عنوان نمونه، اتفاقی که برای AI Act اروپا پس از آمدن Generative AI پیش آمد نشانگر آن است که سرعت تحولات فناوری باعث شده قانونی که سالها از جنبههای مختلف روی آن تحقیق انجام شده بود و پس از کش و قوسهای فراوان به تصویب رسید، دیگر کارایی لازم برای کنترل برخی مخاطرات جدی و نوظهور هوش مصنوعی را نداشته باشد.
مجموعه دولت و حاکمیت در ایران در حال حاضر با توجه به سرعت بالای تحولات فناوری و عدم توانمندی مناسب دستگاه حکمرانی برای قانونگذاری موثر و با سرعت بالا، چارهای جز ارتقای سواد عمومی مردم در این حوزه ندارند. تعریف جرایم برای چنین پیشامدهایی، اثری بسیار حداقلی خواهد داشت چراکه سرعت تحولات فناوری در شرایط حاضر به قدری زیاد است که چارچوبهای حکمرانی و قانونی مدتها قبل از آنکه مورد استفاده جدی قرار بگیرند منسوخ میشوند.
لذا ضروری است تا افزایش آگاهی عمومی نسبت به هوش مصنوعی و کاربردها و مخاطرات آن هر چه سریعتر در دستور کار نهادهای ذیربط نظیر وزارت آموزش و پرورش، وزارت علوم و وزارت فرهنگ و ارشاد اسلامی و وزارت ارتباطات و فناوری اطلاعات قرار گیرد.
بستر شبکههای اجتماعی یکی از مهمترین محملهای بروز مخاطرات ناشی از بکارگیری غیراصولی فناوری هوش مصنوعی است. همچنین شبکههای اجتماعی فرصت بیمانندی برای افزایش آگاهی عمومی نسبت به پیامدهای مثبت و منفی هوش مصنوعی در اختیار ما قرار دادهاند. عدم رسمیت این شبکهها و ادامه سیاست شکست خورده فیلترینگ بوضوح مخاطرههای هوش مصنوعی در شبکههای اجتماعی را تقویت کرده و مانع بکارگیری مفید آنها توسط نهادهای مسئول میشود.
ما هنوز با بسیاری از مخاطرات هوش مصنوعی در ایران مواجه نشدهایم. احتمالا در ۱-۲ سال آینده باید به طور جدیتر با این مشکلات دست و پنجه نرم کنیم و لازم است از هماکنون سواد عمومی مردم را نسبت به انواع و اقسام محتواهای تولید شده با هوش مصنوعی ارتقا دهیم و شهروندان ایرانی را از این خطرات تا جای ممکن مصون داریم. هوش مصنوعی دم در خانه ایستاده است و منتظر سرعت پایین قانونگذاری و توان بروکراسی تضعیف شده ما در آموزش شهروندانمان نخواهد ماند.