عطنا - روزنامه گاردین گزارش تازه ای درباره اثرات مخرب چت جی پی تی بر روزنامه نگاری در زمان کوتاهی رخ داده ، منتشر کرده است.
به نظر می رسد اثرات مخرب پلتفرم جدیدی که امروزه تقریبا با استقبال زیادی از سمت کاربران مواجه شده است، زودتر از آن چیزی که در ابتدا به نظر می رسید ، آشکار شده است.
امیلی بل خبرنگار گاردین در این مقاله نوشته است :«پلتفرمی که بتواند نوشته های انسان ها را بدون تعهد به حقیقت تقلید کند ، هدیه ای زیبا برای کسانی است که از اطلاعات نادرست سود میبرند ، اکنون زمان آن رسیده که استفاده از این پلتفرم را تنظیم کنیم.»
یک ستون نویس فناوری برای نیویورک تایمز نوشته است که یک چت بات احساسات را بیان می کند (که غیرممکن است) . رسانههای دیگر مملو از نمونههایی از بودند که آزمایش جستجوی هوش مصنوعی بینگ متعلق به مایکروسافت ( به نام سیدنی ) را «بیادبانه » و «قلدرانه » خوانده اند . بن تامپسون، خبرنامه نویس Stratechery اعلام کرده است که سیدنی "مهیج ترین تجربه کامپیوتری زندگی من" را برای او فراهم کرده است و استنباط کرده که هوش مصنوعی برای برانگیختن واکنش های احساسی آموزش دیده است - و به نظر می رسد که موفق شده است.
برای روشن تر شدن مسئله ، امکان ندارد هوش مصنوعی مانند چت جی پی تی و سیدنی احساساتی داشته باشند . آن ها همچنین نمیتوانند بگویند که آیا آنها منطقی هستند یا نه . چیزی که این سیستم ها در آن فوق العاده خوب هستند ، تقلید از نثر انسانی ، و پیش بینی کلمات صحیح در کنار هم است . این « مدل های زبان بزرگ » همانند چت جی پی تی ، که یکی از اپلیکیشن های هوش مصنوعی هستند ، می توانند این کار ها را انجام دهند چرا که میلیارد ها مقاله و مجموعه داده های منتشر شده در اینترنت در دسترسی آن ها قرار داده شده است و سپس به این طریق می توانند به سوالات کاربران پاسخ دهند.
در حیطه اهداف روزنامه نگاری ، آن ها می توانند حجم وسیعی از مطالب – کلمات ، تصاویر ، صدا ها و فیلم ها را به سرعت ایجاد کنند. مشکل اصلی در این است که آن ها مطلقا هیچ تعهدی به حقیقت ندارند . فقط کافی است لحظه ای به این فکر کنید که یک کاربر این پلتفرم نوظهور با چه سرعتی می تواند اینترنت را با اخبار جعلی که به نظر می رسد توسط انسان پر شده است ، پر کند.
با این حال از زمانی که تست ChatGPT توسط شرکت هوش مصنوعی OpenAI در ماه نوامبر برای عموم منتشر شد ، هیاهوی همراه آن به طرز نگران کننده ای آشنا بود.همانند تولد رسانه های اجتماعی ، افزایش مشتاقانه سرمایه گذران و بنیان گذاران ، جایی برای تفکر و عمل محتاطانه در توسعه و استفاده از این فناوری را نیز نگذاشته است.
کریستوفر منینگ ، مدیر آزمایشگاه هوش مصنوعی استنفورد ، در توییتی نوشت : «جمعیت اخلاق مدار هوش مصنوعی ، به ترویج روایتی از مدل های هوش مصنوعی مولد که برای استفاده بیش از حد مغرضانه ، غیر قابل اعتماد و خطرناک هستند ، ادامه میدهند ، اما پس از استقرار مردم دوست دارند بدانند که چگونه این مدل ها امکانات جدیدی به آن ها می دهد تا نحوه کار کردن و پیدا کردن اطلاعات ، و سرگرمی را قرار است متحول کند.» او در ادامه می گوید : «من خودم را بخشی از این جمعیت اخلاق می دانم و اگر می خواهیم از خطاهای وحشتناک سی سال گذشته فناوری مصرف کننده اجتناب کنیم – از نقض اطلاعات فیس بوک گرفته تا اطلاعات غلط کنترل نشده که در انتخابات دخالت می کند و نسل کشی را تحریک میکند – باید فورا نگرانی های کارشناسان را درباره آسیب های احتمالی بشنویم.»
عطنا را در شبکههای اجتماعی دنبال کنید: