عطنا - ظهور هوش مصنوعی مولد (Generative AI) و تجاریشدن آن، این روزها بسیاری را هیجانزده کرده است. امکانات جدیدی که هوش مصنوعی فراهم میکند، آینده را کاملا متفاوت از امروز خواهد کرد. اما راجع به این آینده ابهامات زیادی وجود دارد. در کنار امکانات فراوانی که فناوری مبتنی بر هوش مصنوعی برای انسان فراهم میکند، احتمالا مخاطرات و آسیبهایی هم با خود بهدنبال خواهد داشت. بههمین دلیل نیز بسیاری از دانشگاههای دنیا پروژههای پژوهشی را تعریف کردند تا اثرات مثبت و منفی این تحول بزرگ در عرصه فناوری را بر سایر حوزه مطالعه کنند.
در این میان، Chat GPT و سایر ChatBotهای مبتنی بر هوش مصنوعی، توجه بسیاری از پژوهشگران و علاقهمندان به فناوری را بهخود جلب کردهاند. روزی نیست که مطلب جدیدی راجع به امکانات Chat GPT و فرصتهای آن بحث نشود. یکی از امکانات جذاب Chat GPT تولید متن و محتواست. این ChatBot بر اساس درخواستی که از آن داریم، اقدام به تولید محتوا و متن میکند.
امکان تولید متن و محتوا با بکارگیری Chat GPT اگرچه فرصتهایی را در اختیار افراد و شرکتهای تجاری قرار میدهد، اما تهدیداتی را هم با خود بهدنبال دارد. یکی از این تهدیدها، گسترش اخبار جعلی و حتی اکانتهای جعلی است. امروزه مبارزه با اخبار جعلی یکی از دغدغههای مهم خبرنگاران، پژوهشگران و نهادهای مدنی و دولتی است و توسعه الگوریتمهای مناسب برای تشخیص اخبار جعلی و اکانتهای فیک در دستور کار آنها قرار دارد. اما با ظهور هوش مصنوعی مولد، ماجرا پیچیدهتر میشود.
یک کاربر توییتری را تصور کنید که بهطور مرتب از دیگران انتقاد میکند. هر توییتی را که نگاه میکنید، انتقاد آن کاربر را پایین آن توییت میبینید و از خود سؤال میپرسید که این کاربر چطور فرصت میکند در تمام ساعات شبانهروز از دیگران انتقاد کند! این کار میتواند با کمک Chat GPT و بهطور اتوماتیک انجام شود. تنها کافی است که آن اکانت به Chat GPT متصل باشد و بهطور اتوماتیک هر توییتی میبیند برای Chat GPT بفرستد و از آن بخواهد تا یک متن انتقادی راجع به آن توییت بنویسد. سپس نتیجه را در توییتر بهطور اتوماتیک منتشر کند.
شاید بهنظر بیاید این کار شدنی نیست و Chat GPT هنوز به آن مرحله نرسیده است که چنین خروجی داشته باشد. من برای امتحان و بررسی این روش، یک توییت از کاربری به نام «مونا گنجیان» را به Chat GPT دادم و از آن خواستم تا نقدی بر این توییت بنویسید.
در کمال شگفتی، Chat GPT نسبتا پاسخ انتقادی خوبی به توییت اولیه داده است. امری که نشان میدهد این ChatBot حتی در تشخیص زبان روزمره فارسی و ارائه پاسخ به آن نسبتا خوب عمل میکند. حال تصور کنید آن اکانت توییتری مرتبا توییتهای مربوط به یک موضوع خاص را بهطور اتوماتیک به Chat GPT بدهد و پاسخ آن را نیز در پایین هر توییت کامنت بگذارد. اینگونه یک اکانت بدون این که توسط شخص خاصی اداره شود، مرتبا فعال است و علیه دیگران کامنت میگذارد بدون آن که دیگران متوجه شوند هیچکسی پشت آن اکانت نیست.
همین قابلیت میتواند در خدمت ساخت اکانتها و اخبار جعلی قرار بگیرد. با توجه به این امکانات، شاید در آینده نزدیک اکانتهایی در شبکههای اجتماعی فعال شوند که عملا توسط هوش مصنوعی و بهطور اتوماتیک اداره میشوند اما امکان تشخیص آن از یک کاربر واقعی دشوار باشد. در نتیجه این کاربر بهمرور با فعالیت مستمر در آن شبکه اجتماعی میتواند جذب فالوئر کند در حالی که هیچکسی پشت آن نیست. این کاربر همچنین میتواند با ادبیاتی شبیه به دیگران محتوایی تولید کند که باورپذیر بوده اما از اساس غلط و دروغ باشد. تا امروز عامل انسانی در کنار هوش مصنوعی نقش مهمی در شناسایی اخبار جعلی داشته است؛ اما افزایش پیچیدگی اخبار جعلی، احتمال شناسایی این قبیل خبرها دشوارتر شود.
با این حساب، بهنظر میرسد توسعه هوش مصنوعی مولد حتی نوع کنشگری در شبکههای اجتماعی را نیز دستخوش تغییر کند. در یک جمعبندی کلی باید گفت که هوش مصنوعی مولد، مانند انواع دیگر فناوری، توأمان فرصتها و تهدیداتی را ایجاد میکند که باید آگاهانه با آنها روبرو شد. فناوری همراه با خود فرصتها و تهدیدهایی را با هم میآورد و از همین تکنولوژی نیز باید برای کنترل تهدیدها و شناسایی آنها بهره گرفت و چهبسا امکان طراحی الگوریتمی برای شناسایی همین اکانتهای جعلی نیز ممکن شود. آنچه مسلم است آن است که آینده بسیار متفاوت از امروز خواهد بود.
نویسنده: محمد رهبری
عطنا را در شبکههای اجتماعی دنبال کنید: