۲۹ آذر ۱۴۰۱ ۰۷:۰۱
کد خبر: ۳۰۴۵۰۱

عطنا - در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده از آن است. دیپ فیک که از جمله نرم افزارهای مبتنی بر هوش مصنوعی است و با تغییر در محتواهای صوتی و تصویری، محتوای کاملاً متفاوتی از واقعیت به مخاطب می دهد. به همین دلیل آشنایی با دیپ فیک، استفاده از فرصت های آن و مقابله با تهدیدهای آن مسئله مهمی است. حلیه صبورنژاد، پژوهشگر ارتباطات علم و فناوری که معتقد است نباید با تاکید بر خطرات دیپ فیک مانع از بروز اثرات مثبت این فناوری و کاربردهای خوب آن شد، توضیح می دهد: در خصوص دیپ فیک در ایران، شاید باید یک قدم عقب‌تر برویم و توسعه هوش مصنوعی در ایران را بررسی کنیم. ما در این حوزه مزیت‌هایی داریم اما حتما راه طولانی‌ای تا رشد و پیشرفت بیشتر داریم. کارهای زیادی باید انجام دهیم که آزادسازی داده‌ها توسط نهادهای عمومی در خدمت منافع عمومی حتما یکی از آنهاست. بعد ما می‌توانیم انتظار داشته باشیم که یکی یکی کسب‌وکارها و فعالیت‌های مبتنی بر هوش مصنوعی توسعه پیدا کنند.

صبورنژاد در ابتدای صحبت های خود با اشاره به کاربردهای دیپ فیک به شفقنا رسانه می گوید: ابتدا می خواهم به تغییرات فناوری و کاربردهای آنها در جامعه اشاره کنم. این نگاه به ما کمک می‌کند نقش‌آفرینان اصلی را شناسایی کنیم. نگرانی‌های گسترده‌ای در خصوص دیپ‌فیک وجود دارد که عمدتا حول اخبار و اطلاعات جعلی، جعل سخنان افراد مشهور، سوء‌استفاده غیراخلاقی و هرزه‌نگاری، جعل هویت با هدف سوءاستفاده مالی و … است. این خطرات جدی مانع این می‌شود که ما اثرات مثبت دیپ‌فیک را به صورت برجسته ببینیم. اما واقعیت این است که «جعل عمیق مثبت» یا کاربردهای مثبت جعل عمیق نیز در سالهای آینده بیش از پیش موجودیت خواهد یافت.

او مثال می زند:اولین مثال من در خصوص هنر است و فکر می کنم هنرمندان بیشتر از این امکان ها مدد خواهند گرفت و گاه در مقابل بیشتر دچار دردسر می‌شوند. به مدد فناوری بازی‌سازها و انیماتورها هر روز بیشتر قادر به باورپذیرتر کردن آفرینش‌های خود شده اند. مثلا با فناوری motion capture می‌توانند حرکات دقیق یک انسان سوار بر اسب را ثبت کنند و در نرم‌افزار به یک انسان طراحی‌شده منتقل کنند و به همین واسطه حرکات واقعی‌تر دیده شود. حالا تصور کنید بازیگری از دنیا رفته است و فیلمی نیمه‌کاره مانده، با استفاده از فناوری جعل عمیق می‌توانند ادامه کار را با لحن و صدا و تصویری دقیقا شبیه به بازیگر اصلی (طوری که مخاطب هرگز متوجه آن نشود) بسازند. اینجا هم مسائل اخلاقی و حق هنرمند و… به میان می‌آید و باید از منظر حقوق رسانه قواعدی برای آن تثبیت شود.

این پژوهشگر حوزه رسانه با اشاره به اینکه در کاربردهای مثبت جعل عمیق هم چالش‌های اخلاقی جدی به وجود می آید، توضیح می دهد: بی‌دلیل نیست که ما از تحول صحبت می‌کنیم. تحول یعنی این که تمام اجزاء متاثر می‌شوند و باید مطابق شرایط جدید به مسائل پاسخ داده‌شود. مثال دوم من از کاربرد مثبت جعل عمیق در حوزه آموزش و گردشگری است. فرض کنید با یک شخصیت تاریخی از طریق جعل عمیق گفت‌وگو شود. در سال ۲۰۱۸ موزه هولوکاست و مرکز آموزشی ایلینویز مصاحبه‌های هولوگراماتیک ایجاد کردند و بازدیدکنندگان می توانستند از بازماندگان هولوکاست سوال کنند و با آنها تعامل داشته باشند. البته این روایت مجازی تاریخ هم می‌تواند چالش‌های اخلاقی خود را داشته باشد که ساده‌ترین آن شبیه اتفاقی است که پیش از این در فیلم‌های خوش‌ساخت هالیوودی هم افتاده است: قلب واقعیت با مهارتی که بیننده غرق آن شود و دیدگاه نقادانه‌اش به تعلیق درآید.

صبورنژاد با ذکر مثالی دیگر از دیپ فیک و کاربردهای آن برای جامعه می گوید: حالا که صحبت از هنر شد یک مثال دیگر هم بزنم. آزمایشگاه تحقیقاتی هوش مصنوعی «سامسونگ»، مونالیزایی ساخته که سر، چشم و دهان خود را حرکت می‌دهد یا در پویشی برای مبارزه با مالاریا، بجای دوبله پیام حمایتی «دیوید بکام» از این پویش، با استفاده از فناوری جعل عمیق، با صدا و حالات دقیق صورت، حرکت لب‌ها و خلاصه تمام جزئیات منحصر او، جملات به زبان‌های مختلف بیان شد. این می‌تواند فاصله میان ما و بازیگر در فیلم‌های دوبله‌شده را به حداقل برساند و ما را امیدوار کند مانع زبانی برای دسترسی به اطلاعات روز به روز کمتر شود.

صبورنژاد که بیشتر مثال هایش در خصوص دیپ فیک، درحوزه سرگرمی و رسانه بوده، با اشاره به اثر گذاری این فناوری در حوزه های دیگر بیان می کند: شاید این قضاوت کمی زود باشد اما من فکر می‌کنم محدود به این حوزه نماند و کاربردهای پیشرفت‌های فناورانه در عرصه هوش مصنوعی زندگی روزمره ما را بیش از پیش متحول کند. همه ما می‌دانیم اخبار و اطلاعات جعلی در حوزه سلامت، همین حالا هم آسیب‌های جبران‌ناپذیری داشته اما فناوری‌ای که پشت جعل عمیق است در حقیقت همان پردازش تصویر بسیار بسیار پیشرفته است. چنین فناوری‌ای می‌تواند در امر تشخیص و درمان بسیار موثر باشد.

او ادامه می دهد: الگوریتم‌های یادگیری عمیق در تطبیق الگو در تصاویر عالی هستند. پس برای تشخیص انواع سرطان در سی‌تی اسکن، تمیز دادن بیماری‌ها در MRI و شناسایی ناهنجاری‌ها در تصویر اشعه ایکس آموزش ببینند اما مسئله اینجاست که به دلیل نگرانی‌های مربوط به حریم خصوصی، محققان اغلب داده‌های آموزشی کافی ندارند. اینجاست که GANها (شبکه‌های مولد متخاصم) که در دیپ فیک نیز مورد استفاده قرار می‌گیرند وارد می‌شوند: این الگوریتم‌ها می‌توانند تصاویر پزشکی بیشتری که غیرقابل‌تشخیص از تصاویر واقعی هستند، ترکیب کنند و مجموعه داده‌های مفیدی به پژوهشگران بدهند، بدون اینکه مسئله حقوق بیمار و حریم خصوصی او به میان آید.

این فعال رسانه ای درباره راه تشخیص واقعیت از محتوای فیک، می گوید: به نظر من، تاریخ فناوری نشان می‌دهد که فناوری‌های جعل و فناوری‌های تشخیص جعل، شانه به شانه یکدیگر در حرکت هستند. در گذشته‌های دور هم مهر و امضا و دستخط جعل می‌شده و همزمان افراد خبره‌ای بودند که این جعل‌ها را با روش‌هایی، تشخیص می‌داده‌اند. حالا هم سیستم‌های رایانه‌ای خبره‌ای خواهند بود که این جعل‌ها را برملا کنند. گرچه این‌همه عدم قطعیت، زندگی انسان امروز را عجیب و گاه حتی سنگین و غیرقابل تحمل کرده است، فکر می‌کنم راهکارهای فناورانه توسعه خواهند یافت. فارغ از توسعه این فناوری‌ها، واقعیت این است که عواقب اجتماعی جدی جعل عمیق را نمی‌توان نادیده گرفت.

او توضیح می دهد: علامت سوال جلوی مسئله اعتماد هر روز بزرگتر می‌شود، حتی واقعیت‌ها هم می‌توانند برچسب فیک بخورند و انکار شوند. مثل همیشه آنچه فناوری‌ها را ترسناک‌تر می‌کند کنش انسان‌هاست. خطرناک‌تر از فناوری پیشرفته جعل و پذیرش اطلاعات جعلی، آدم‌هایی خواهند بود غوطه‌ور در جعلیات که شأنیتی برای صحت قائل نمی‌شوند. آدم‌هایی که بر اثر خستگی ذهنی از چرخه جست‌وجو برای واقعیت و به نتیجه نرسیدن و فراموش کردن، به صحت و واقعیت بها نمی‌دهند. آدم‌های عصر اطلاعات جعلی، آدم‌هایی اند که صورتشان از ضربه‌های پیاپی ناواقعیت و جعل، بی‌حس می‌شود و در مواجهه با«سیلی واقعیت»هیچ دردی احساس نمی‌کنند. باید دید این بی‌دردی چه پیامدی برای خرد و انسان دارد.

این دانشجوی دکتری علوم ارتباطات، با توضیح درباره چگونگی استفاده از ابزار دیپ فیک در ایران و مقابله با خطرات این فناوری می گوید: در خصوص دیپ فیک در ایران، شاید باید یک قدم عقب‌تر برویم و توسعه هوش مصنوعی در ایران را بررسی کنیم. ما در این حوزه مزیت‌هایی داریم اما حتما راه طولانی‌ای تا رشد و پیشرفت بیشتر داریم. کارهای زیادی باید انجام دهیم که آزادسازی داده‌ها توسط نهادهای عمومی در خدمت منافع عمومی حتما یکی از آنهاست. بعد ما می‌توانیم انتظار داشته باشیم که یکی یکی کسب‌وکارها و فعالیت‌های مبتنی بر هوش مصنوعی توسعه پیدا کنند.

او بیان می کند: در خصوص سواد رسانه‌ای زیاد صحبت شده و خیلی وقت‌ها حتی برخی افراد سیاسی آن را به اشتباه به کار برده اند. اگر از من بپرسید، فکر میکنم مسئله سواد رسانه‌ای در ایران، در درجه اول میان قانون‌گذاران و سیاست‌گذاران ماست. هراس از اطلاعات و به اشتراک گذاشته شدن آن، مانع توسعه رسانه‌ای، اجتماعی و حتی ملی ماست.

صبورنژاد درباره تقویت سواد رسانه ای در جامعه پیشنهاد می دهد: سواد رسانه‌ای و سواد اطلاعاتی باید در لایه‌های مختلف اجتماعی تقویت شود. هم‌افزایی وضعیت اجتماعی بشر و پیشرفت‌های فناورانه، ما را سمت آینده می‌برد که سرشار از عدم قطعیت است و ناچاریم برای تاب آوردن در این جهان، مهارت‌های تازه‌ای را تمرین کنیم. جهان مدام به دنبال راهکارهای تازه برای مسائل تازه است و ما باید به جای تلاش برای ایستادن جلوی فناوری‌ها، آنها را برای زندگی بهتر به کار گیریم. در خصوص جعل عمیق هم شرکت‌های بزرگی چون گوگل در حال تلاش برای توسعه سیستم‌های راستی آزمایی ویدیویی هستند اما هنوز استفاده از آنها فراگیر نشده است.

او درباره راستی آزمایی برای محتوای تهیه‌شده با جعل عمیق برای کاربران رسانه های اجتماعی می گوید: همین حالا هم توصیه‌هایی وجود دارد که تا حدی به مخاطب برای راستی آزمایی کمک می‌کند. مثلا در نظر گرفتن اعتبار منبع، انگیزه‌های تولیدکننده محتوا، تطبیق آن با منابع معتبر دیگر، حرکات غیرطبیعی صورت در برخی نمونه‌های ضعیف‌تر دیپ فیک (مانند پلک نزدن یا تاری دور لب، پرش‌های ریز تصویر و…)، سراسیمه و هیجانی برخورد نکردن با اخبار و اطلاعات، استفاده از سایت‌هایی مانند Snopes، Politifact و Factcheck.org که راهنمای خوبی برای پیدا کردن محتواهای جعلی هستند.

عطنا را در شبکه‌های اجتماعی دنبال کنید:

اینستاگرام                                              تلگرام

ارسال نظر
نام:
ایمیل:
* :
* نظر:
هنر و فرهنگ1
کرونا؛ نادانی انسان در عصر علم و فناوری قرن بیست و یکم
کتاب چشم انداز‌های ارتباطی پاندمی منتشر شد:

کرونا؛ نادانی انسان در عصر علم و فناوری قرن بیست و یکم

کتاب«چشم انداز‌های ارتباطی پاندمی»جدیدترین اثر دکتر هادی خانیکی با گردآوری وتدوین حبیب راثی تهرانی، با نگاهی ارتباطی به بیماری کرونا، به‌تازگی ازسوی مرکز نشر دانشگاهی منتشر و راهی بازار نشر شده است.
فحش دادن بخشی از ابزار کار و سنت ماست!
حمایت بی‌شرمانه شاهین نجفی از فحاشی و توهین عناصر ضدانقلاب به مردم ایران:

فحش دادن بخشی از ابزار کار و سنت ماست!

شاهین نجفی خواننده هتاک، فحش دادن را بخشی از ابزار کار خود و از سنت‌های خود و عناصر ضد انقلاب دانست و خواست که مردم فحاشی کردن را به عنوان بخشی از فرهنگ و سنت‌های خود بپذیرند!!
هنر و فرهنگ2
دروازه‌بانی، تاثیر مستقیمی بر برداشت ما از واقعیت‌های اجتماعی دارد
معرفی کتاب: "دروازه بانی"، اثر پاملا شومیکر، ترجمه دکتر حسین افخمی:

دروازه‌بانی، تاثیر مستقیمی بر برداشت ما از واقعیت‌های اجتماعی دارد

بنابر نظر پاملا شومیکر، استعاره "دروازه‌بانی" را می‌توان برای هرموقعیت تصمیم گیری و با هرمیزان اطلاعات به کار برد؛ چه این انتقال از طریق کانال‌های جمعی و چه از طریق کانال های بین‌فردی باشد.
پر بازدیدها
آخرین اخبار