عطنا - در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده از آن است. دیپ فیک که از جمله نرم افزارهای مبتنی بر هوش مصنوعی است و با تغییر در محتواهای صوتی و تصویری، محتوای کاملاً متفاوتی از واقعیت به مخاطب می دهد. به همین دلیل آشنایی با دیپ فیک، استفاده از فرصت های آن و مقابله با تهدیدهای آن مسئله مهمی است. حلیه صبورنژاد، پژوهشگر ارتباطات علم و فناوری که معتقد است نباید با تاکید بر خطرات دیپ فیک مانع از بروز اثرات مثبت این فناوری و کاربردهای خوب آن شد، توضیح می دهد: در خصوص دیپ فیک در ایران، شاید باید یک قدم عقبتر برویم و توسعه هوش مصنوعی در ایران را بررسی کنیم. ما در این حوزه مزیتهایی داریم اما حتما راه طولانیای تا رشد و پیشرفت بیشتر داریم. کارهای زیادی باید انجام دهیم که آزادسازی دادهها توسط نهادهای عمومی در خدمت منافع عمومی حتما یکی از آنهاست. بعد ما میتوانیم انتظار داشته باشیم که یکی یکی کسبوکارها و فعالیتهای مبتنی بر هوش مصنوعی توسعه پیدا کنند.
صبورنژاد در ابتدای صحبت های خود با اشاره به کاربردهای دیپ فیک به شفقنا رسانه می گوید: ابتدا می خواهم به تغییرات فناوری و کاربردهای آنها در جامعه اشاره کنم. این نگاه به ما کمک میکند نقشآفرینان اصلی را شناسایی کنیم. نگرانیهای گستردهای در خصوص دیپفیک وجود دارد که عمدتا حول اخبار و اطلاعات جعلی، جعل سخنان افراد مشهور، سوءاستفاده غیراخلاقی و هرزهنگاری، جعل هویت با هدف سوءاستفاده مالی و … است. این خطرات جدی مانع این میشود که ما اثرات مثبت دیپفیک را به صورت برجسته ببینیم. اما واقعیت این است که «جعل عمیق مثبت» یا کاربردهای مثبت جعل عمیق نیز در سالهای آینده بیش از پیش موجودیت خواهد یافت.
او مثال می زند:اولین مثال من در خصوص هنر است و فکر می کنم هنرمندان بیشتر از این امکان ها مدد خواهند گرفت و گاه در مقابل بیشتر دچار دردسر میشوند. به مدد فناوری بازیسازها و انیماتورها هر روز بیشتر قادر به باورپذیرتر کردن آفرینشهای خود شده اند. مثلا با فناوری motion capture میتوانند حرکات دقیق یک انسان سوار بر اسب را ثبت کنند و در نرمافزار به یک انسان طراحیشده منتقل کنند و به همین واسطه حرکات واقعیتر دیده شود. حالا تصور کنید بازیگری از دنیا رفته است و فیلمی نیمهکاره مانده، با استفاده از فناوری جعل عمیق میتوانند ادامه کار را با لحن و صدا و تصویری دقیقا شبیه به بازیگر اصلی (طوری که مخاطب هرگز متوجه آن نشود) بسازند. اینجا هم مسائل اخلاقی و حق هنرمند و… به میان میآید و باید از منظر حقوق رسانه قواعدی برای آن تثبیت شود.
این پژوهشگر حوزه رسانه با اشاره به اینکه در کاربردهای مثبت جعل عمیق هم چالشهای اخلاقی جدی به وجود می آید، توضیح می دهد: بیدلیل نیست که ما از تحول صحبت میکنیم. تحول یعنی این که تمام اجزاء متاثر میشوند و باید مطابق شرایط جدید به مسائل پاسخ دادهشود. مثال دوم من از کاربرد مثبت جعل عمیق در حوزه آموزش و گردشگری است. فرض کنید با یک شخصیت تاریخی از طریق جعل عمیق گفتوگو شود. در سال ۲۰۱۸ موزه هولوکاست و مرکز آموزشی ایلینویز مصاحبههای هولوگراماتیک ایجاد کردند و بازدیدکنندگان می توانستند از بازماندگان هولوکاست سوال کنند و با آنها تعامل داشته باشند. البته این روایت مجازی تاریخ هم میتواند چالشهای اخلاقی خود را داشته باشد که سادهترین آن شبیه اتفاقی است که پیش از این در فیلمهای خوشساخت هالیوودی هم افتاده است: قلب واقعیت با مهارتی که بیننده غرق آن شود و دیدگاه نقادانهاش به تعلیق درآید.
صبورنژاد با ذکر مثالی دیگر از دیپ فیک و کاربردهای آن برای جامعه می گوید: حالا که صحبت از هنر شد یک مثال دیگر هم بزنم. آزمایشگاه تحقیقاتی هوش مصنوعی «سامسونگ»، مونالیزایی ساخته که سر، چشم و دهان خود را حرکت میدهد یا در پویشی برای مبارزه با مالاریا، بجای دوبله پیام حمایتی «دیوید بکام» از این پویش، با استفاده از فناوری جعل عمیق، با صدا و حالات دقیق صورت، حرکت لبها و خلاصه تمام جزئیات منحصر او، جملات به زبانهای مختلف بیان شد. این میتواند فاصله میان ما و بازیگر در فیلمهای دوبلهشده را به حداقل برساند و ما را امیدوار کند مانع زبانی برای دسترسی به اطلاعات روز به روز کمتر شود.
صبورنژاد که بیشتر مثال هایش در خصوص دیپ فیک، درحوزه سرگرمی و رسانه بوده، با اشاره به اثر گذاری این فناوری در حوزه های دیگر بیان می کند: شاید این قضاوت کمی زود باشد اما من فکر میکنم محدود به این حوزه نماند و کاربردهای پیشرفتهای فناورانه در عرصه هوش مصنوعی زندگی روزمره ما را بیش از پیش متحول کند. همه ما میدانیم اخبار و اطلاعات جعلی در حوزه سلامت، همین حالا هم آسیبهای جبرانناپذیری داشته اما فناوریای که پشت جعل عمیق است در حقیقت همان پردازش تصویر بسیار بسیار پیشرفته است. چنین فناوریای میتواند در امر تشخیص و درمان بسیار موثر باشد.
او ادامه می دهد: الگوریتمهای یادگیری عمیق در تطبیق الگو در تصاویر عالی هستند. پس برای تشخیص انواع سرطان در سیتی اسکن، تمیز دادن بیماریها در MRI و شناسایی ناهنجاریها در تصویر اشعه ایکس آموزش ببینند اما مسئله اینجاست که به دلیل نگرانیهای مربوط به حریم خصوصی، محققان اغلب دادههای آموزشی کافی ندارند. اینجاست که GANها (شبکههای مولد متخاصم) که در دیپ فیک نیز مورد استفاده قرار میگیرند وارد میشوند: این الگوریتمها میتوانند تصاویر پزشکی بیشتری که غیرقابلتشخیص از تصاویر واقعی هستند، ترکیب کنند و مجموعه دادههای مفیدی به پژوهشگران بدهند، بدون اینکه مسئله حقوق بیمار و حریم خصوصی او به میان آید.
این فعال رسانه ای درباره راه تشخیص واقعیت از محتوای فیک، می گوید: به نظر من، تاریخ فناوری نشان میدهد که فناوریهای جعل و فناوریهای تشخیص جعل، شانه به شانه یکدیگر در حرکت هستند. در گذشتههای دور هم مهر و امضا و دستخط جعل میشده و همزمان افراد خبرهای بودند که این جعلها را با روشهایی، تشخیص میدادهاند. حالا هم سیستمهای رایانهای خبرهای خواهند بود که این جعلها را برملا کنند. گرچه اینهمه عدم قطعیت، زندگی انسان امروز را عجیب و گاه حتی سنگین و غیرقابل تحمل کرده است، فکر میکنم راهکارهای فناورانه توسعه خواهند یافت. فارغ از توسعه این فناوریها، واقعیت این است که عواقب اجتماعی جدی جعل عمیق را نمیتوان نادیده گرفت.
او توضیح می دهد: علامت سوال جلوی مسئله اعتماد هر روز بزرگتر میشود، حتی واقعیتها هم میتوانند برچسب فیک بخورند و انکار شوند. مثل همیشه آنچه فناوریها را ترسناکتر میکند کنش انسانهاست. خطرناکتر از فناوری پیشرفته جعل و پذیرش اطلاعات جعلی، آدمهایی خواهند بود غوطهور در جعلیات که شأنیتی برای صحت قائل نمیشوند. آدمهایی که بر اثر خستگی ذهنی از چرخه جستوجو برای واقعیت و به نتیجه نرسیدن و فراموش کردن، به صحت و واقعیت بها نمیدهند. آدمهای عصر اطلاعات جعلی، آدمهایی اند که صورتشان از ضربههای پیاپی ناواقعیت و جعل، بیحس میشود و در مواجهه با«سیلی واقعیت»هیچ دردی احساس نمیکنند. باید دید این بیدردی چه پیامدی برای خرد و انسان دارد.
این دانشجوی دکتری علوم ارتباطات، با توضیح درباره چگونگی استفاده از ابزار دیپ فیک در ایران و مقابله با خطرات این فناوری می گوید: در خصوص دیپ فیک در ایران، شاید باید یک قدم عقبتر برویم و توسعه هوش مصنوعی در ایران را بررسی کنیم. ما در این حوزه مزیتهایی داریم اما حتما راه طولانیای تا رشد و پیشرفت بیشتر داریم. کارهای زیادی باید انجام دهیم که آزادسازی دادهها توسط نهادهای عمومی در خدمت منافع عمومی حتما یکی از آنهاست. بعد ما میتوانیم انتظار داشته باشیم که یکی یکی کسبوکارها و فعالیتهای مبتنی بر هوش مصنوعی توسعه پیدا کنند.
او بیان می کند: در خصوص سواد رسانهای زیاد صحبت شده و خیلی وقتها حتی برخی افراد سیاسی آن را به اشتباه به کار برده اند. اگر از من بپرسید، فکر میکنم مسئله سواد رسانهای در ایران، در درجه اول میان قانونگذاران و سیاستگذاران ماست. هراس از اطلاعات و به اشتراک گذاشته شدن آن، مانع توسعه رسانهای، اجتماعی و حتی ملی ماست.
صبورنژاد درباره تقویت سواد رسانه ای در جامعه پیشنهاد می دهد: سواد رسانهای و سواد اطلاعاتی باید در لایههای مختلف اجتماعی تقویت شود. همافزایی وضعیت اجتماعی بشر و پیشرفتهای فناورانه، ما را سمت آینده میبرد که سرشار از عدم قطعیت است و ناچاریم برای تاب آوردن در این جهان، مهارتهای تازهای را تمرین کنیم. جهان مدام به دنبال راهکارهای تازه برای مسائل تازه است و ما باید به جای تلاش برای ایستادن جلوی فناوریها، آنها را برای زندگی بهتر به کار گیریم. در خصوص جعل عمیق هم شرکتهای بزرگی چون گوگل در حال تلاش برای توسعه سیستمهای راستی آزمایی ویدیویی هستند اما هنوز استفاده از آنها فراگیر نشده است.
او درباره راستی آزمایی برای محتوای تهیهشده با جعل عمیق برای کاربران رسانه های اجتماعی می گوید: همین حالا هم توصیههایی وجود دارد که تا حدی به مخاطب برای راستی آزمایی کمک میکند. مثلا در نظر گرفتن اعتبار منبع، انگیزههای تولیدکننده محتوا، تطبیق آن با منابع معتبر دیگر، حرکات غیرطبیعی صورت در برخی نمونههای ضعیفتر دیپ فیک (مانند پلک نزدن یا تاری دور لب، پرشهای ریز تصویر و…)، سراسیمه و هیجانی برخورد نکردن با اخبار و اطلاعات، استفاده از سایتهایی مانند Snopes، Politifact و Factcheck.org که راهنمای خوبی برای پیدا کردن محتواهای جعلی هستند.
عطنا را در شبکههای اجتماعی دنبال کنید: