۲۹ تير ۱۴۰۴ ۰۷:۱۹
کد خبر: ۳۰۶۲۴۴

عطنا - اخیرا وزارت امور خارجه آمریکا خبری منتشر کرده که فرد ناشناسی با استفاده از هوش مصنوعی، صدای مارکو روبیو، وزیر امور خارجه این کشور را جعل کرده و با دست‌کم پنج فرد برجسته، شامل سه وزیر خارجه، از طریق پیام‌رسان سیگنال (Signal) تماس گرفته است. این فرد با استفاده از یک حساب جعلی در سیگنال که شبیه به ایمیل رسمی ساخته شده بود، در اواسط ژوئن اقدام به ارسال پیام و گذاشتن پیام صوتی کرده است.

هرچند این تلاش‌ها در نهایت ناموفق و از نظر فنی «غیرپیشرفته» ارزیابی شدند، اما نگرانی‌هایی جدی در محافل آمریکایی در زمینه امنیت سایبری ایجاد کرده‌اند. مقامات هنوز هویت این شخص را نمی‌دانند، اما معتقدند هدف او فریب مقامات برای دسترسی به اطلاعات حساس بوده است. این ماجرا در ادامه سوء‌استفاده‌های پیشین از فناوری هوش مصنوعی برای جعل صدای چهره‌های سیاسی رخ می‌دهد، از جمله تماس‌های جعلی منتسب به جو بایدن در جریان انتخابات ۲۰۲۴ آمریکا.

با گسترش هر چه بیشتر کیفیت محصولات هوش مصنوعی در حوزه صوت و زبان فارسی احتمال پدید آمدن خطرهای مشابهی (تقلید صدای مقامات) در حال افزایش است. در بستر کشورهای در حال توسعه که به صورت میانگین سواد دیجیتال پایین‌تر و حساسیت کمتری نسبت به پیامدهای منفی و پیچیده بکارگیری هوش مصنوعی (به طور عمومی فناوری) و نتایج استفاده از آن وجود دارد، امکان چنین اتفاقاتی به طور قابل ملاحظه‌ای بالاتر است.

تصور کنید که کسی صدای استاندار یک استان را تقلید کند و به یک فرد عادی در شهر زنگ بزند و درخواستی از او بکند، برای مثال میزان پولی را برای کسی واریز کند یا نامه‌ای را از جایی به دست کسی برساند. یا تصور کنید کسی صدای مدیرعامل یک شرکت بورسی را تقلید کند که به دوستان خود توصیه‌ای مالی دارد و این خبر و صوت در میان شبکه فعالان بورسی پخش شود یا فرض کنید کسی با تقلید صدای یک فرمانده نیروی انتظامی یک منطقه از مردم یک محل خاص بخواهد خانه و کاشانه خود را ترک کنند چراکه ممکن است مورد حمله قرار گیرند یا به اشتباه نسبت به شرایط بد آب و هوایی هشدار بدهد و هزاران هزاران نمونه دیگر که می‌تواند اتفاق بیفتد. حتی تصور برداشت اشتباه تماس یا پیامی از سمت دوستان و آشنایان هم دور از انتظار نیست هر چه که از نظر فنی هنوز با آن فاصله معناداری داریم.

چارچوب‌های حکمرانی هوش مصنوعی (حتی در کشورهای پیشرفته و توسعه‌یافته) عموما توانایی جلوگیری از چنین رخدادهایی را حداقل در بازه کوتاه مدت ندارند و تجربه کشورهای اروپایی خود تا حدی موید این ماجراست. به عنوان نمونه، اتفاقی که برای AI Act اروپا پس از آمدن Generative AI پیش آمد نشانگر آن است که سرعت تحولات فناوری باعث شده قانونی که سالها از جنبه‌های مختلف روی آن تحقیق انجام شده بود و پس از کش و قوس‌های فراوان به تصویب رسید، دیگر کارایی لازم برای کنترل برخی مخاطرات جدی و نوظهور هوش مصنوعی را نداشته باشد.

مجموعه دولت و حاکمیت در ایران در حال حاضر با توجه به سرعت بالای تحولات فناوری و عدم توانمندی مناسب دستگاه حکمرانی برای قانونگذاری موثر و با سرعت بالا، چاره‌ای جز ارتقای سواد عمومی مردم در این حوزه ندارند. تعریف جرایم برای چنین پیشامدهایی، اثری بسیار حداقلی خواهد داشت چراکه سرعت تحولات فناوری در شرایط حاضر به قدری زیاد است که چارچوب‌های حکمرانی و قانونی مدت‌ها قبل از آنکه مورد استفاده جدی قرار بگیرند منسوخ می‌شوند.

لذا ضروری است تا افزایش آگاهی عمومی نسبت به هوش مصنوعی و کاربردها و مخاطرات آن هر چه سریعتر در دستور کار نهادهای ذیربط نظیر وزارت آموزش و پرورش، وزارت علوم و وزارت فرهنگ و ارشاد اسلامی و وزارت ارتباطات و فناوری اطلاعات قرار گیرد.

بستر شبکه‌های اجتماعی یکی از مهمترین محمل‌های بروز مخاطرات ناشی از بکارگیری غیراصولی فناوری هوش مصنوعی است. همچنین شبکه‌های اجتماعی فرصت بی‌مانندی برای افزایش آگاهی عمومی نسبت به پیامدهای مثبت و منفی هوش مصنوعی در اختیار ما قرار داده‌اند. عدم رسمیت این شبکه‌ها و ادامه سیاست شکست خورده فیلترینگ بوضوح مخاطره‌های هوش مصنوعی در شبکه‌های اجتماعی را تقویت کرده و مانع بکارگیری مفید آنها توسط نهادهای مسئول می‌شود.

ما هنوز با بسیاری از مخاطرات هوش مصنوعی در ایران مواجه نشده‌ایم. احتمالا در ۱-۲ سال آینده باید به طور جدی‌تر با این مشکلات دست و پنجه نرم کنیم و لازم است از هم‌اکنون سواد عمومی مردم را نسبت به انواع و اقسام محتواهای تولید شده با هوش مصنوعی ارتقا دهیم و شهروندان ایرانی را از این خطرات تا جای ممکن مصون داریم. هوش مصنوعی دم در خانه ایستاده است و منتظر سرعت پایین قانونگذاری و توان بروکراسی تضعیف شده ما در آموزش شهروندانمان نخواهد ماند.

ارسال نظر
نام:
ایمیل:
* :
* نظر:
هنر و فرهنگ1
کرونا؛ نادانی انسان در عصر علم و فناوری قرن بیست و یکم
کتاب چشم انداز‌های ارتباطی پاندمی منتشر شد:

کرونا؛ نادانی انسان در عصر علم و فناوری قرن بیست و یکم

کتاب«چشم انداز‌های ارتباطی پاندمی»جدیدترین اثر دکتر هادی خانیکی با گردآوری وتدوین حبیب راثی تهرانی، با نگاهی ارتباطی به بیماری کرونا، به‌تازگی ازسوی مرکز نشر دانشگاهی منتشر و راهی بازار نشر شده است.
هنر و فرهنگ2
دروازه‌بانی، تاثیر مستقیمی بر برداشت ما از واقعیت‌های اجتماعی دارد
معرفی کتاب: "دروازه بانی"، اثر پاملا شومیکر، ترجمه دکتر حسین افخمی:

دروازه‌بانی، تاثیر مستقیمی بر برداشت ما از واقعیت‌های اجتماعی دارد

بنابر نظر پاملا شومیکر، استعاره "دروازه‌بانی" را می‌توان برای هرموقعیت تصمیم گیری و با هرمیزان اطلاعات به کار برد؛ چه این انتقال از طریق کانال‌های جمعی و چه از طریق کانال های بین‌فردی باشد.
انجمن های علمی
سمینار و وبینار بین‌المللیِ «معرفی رهیاری نشانه‌شناختی؛ اثری بدیع و نوآور از لاله مولائی» برگزار شد
به همت انجمن سواد رسانه ای ایران و با همکاری فرهنگسرای رسانه، ساترا و مجمع رصتا؛

سمینار و وبینار بین‌المللیِ «معرفی رهیاری نشانه‌شناختی؛ اثری بدیع و نوآور از لاله مولائی» برگزار شد

همایش و وبینار بین‌المللیِ«معرفی رهیاری(کوچینگ) نشانه‌شناختی؛ اثری بدیع و نوآور از لاله مولائی»، از سوی انجمن سواد رسانه ای ایران و باهمکاری فرهنگسرای رسانه،ساترا ومجمع رصتا برگزار شد.
پر بازدیدها
آخرین اخبار