هوش مصنوعی حالا می تواند داستان بنویسد و روزنامه نگاری کند!

 
ترسناک است یا امیدبخش؟!

به گزارش گاردین، به نظر می‌رسد رویا یا کابوس متنی که کاملا توسط ماشین تولید شده، با خبری که به تازگی اعلام شده که هوش مصنوعی می‌تواند به تنهایی اخبار یا داستان‌های قابل قبول تولید کند، یک قدم به واقعیت نزدیک‌تر شده است. این مخلوق فکری متعلق به شرکت پژوهشی غیرانتفاعی هوش مصنوعی «اوپن ای‌آی» است که به ادبا هشدار می‌دهد که این هوش مصنوعی (که جی‌پی‌تی‌۲ نامیده شده) برایشان خطرناک است زیرا می‌تواند برای ساخت متون عمیقا جعلی و ساختگی به کار گرفته شود.

اوپن ای‌آی گفت: «با توجه به نگرانی‌ها درباره استفاده‌های مخرب از این تکنولوژی، مدل آموزش‌دیده را منتشر نمی‌کنیم.»

آیا این ماشین‌ها به سلاح جدید تروریسم اطلاعاتی تبدیل می‌شوند یا تنها رمان‌نویسان سطح متوسط را از دور به در می‌کنند؟

جی‌پی‌تی۲ از روش‌های تحلیل آماری استفاده می‌کند که توسط مقادیر عظیمی از متن‌های نوشته شده توسط انسان (۴۰ گیگابایت صفحه وب) آموزش دیده است. این رویکرد همان شیوه‌ای است که گوگل ترنسلیت با آن کار می‌کند.

در حال حاضر به نظر می‌رسد که داستان‌نویسان چیز زیادی برای ترسیدن ندارند. وقتی خط اول رمان ۱۹۸۴ جرج اورول را با این مضمون: «یک روز سرد در ماه آوریل بود و ساعت‌ها سیزده را نشان می‌دادند.» به دستگاه دادند، داستان را این‌طور ادامه داد: «در ماشینم در راهِ رفتن به کار جدیدم در سیاتل بودم. بنزین زدم، کلید را چرخاندم و گذاشتم که برود. فقط تصور کردم که امروز چطور خواهد بود. صد سال بعد از این. در ۲۰۴۵ من یک معلم در مدرسه‌ای در بخش فقیر روستایی در چین بودم. با تاریخ چین و علم تاریخ شروع کردم.»

این نوشته به دلایل زیادی گیج‌کننده است. راوی نمی‌تواند شغلی در سیاتل داشته باشد و همزمان در مدرسه‌ای در چین کار کند. داستان می‌بایست در سال ۱۹۴۵ اتفاق افتاده باشد و راوی، آینده شغلی خود را صد سال پس از این با نگاهی نامعقول و خوش‌بینانه به طول عمر خود، تصور می‌کند. حتا در سال ۱۹۴۵ او دارد ماشینی را می‌راند که می‌توان از داخل آن را بنزین زد («در ماشینم بودم... بنزین زدم») و ظاهرا نیازی نیست که آن را براند («گذاشتم که برود»).

اطلاعیه سازندگان مبنی بر خطرناک بودن انتشار این برنامه خوب است اما قانع‌کننده نیست. اوپن ای‌آی هشدار می‌دهد که چنین کُدی می‌تواند برای تولید مقالات خبری گمراه‌کننده مورد استفاده قرار گیرد، اما در حال حاضر هم به هیچ عنوان کمبود اخبار ساختگی نوشته‌شده توسط انسان‌های واقعی را احساس نمی‌کنیم.

نکته اصطلاح «عمیقا جعلی» این است که متونی که این دستگاه‌ تولید می‌کند از هر متنی که هر انسانی می‌تواند بنویسد جعلی‌تر است. با این همه چیزی که بسیار خطرناک‌تر از اطلاعات نادرست نوشته شده توسط کامپیوتر است، خبرهای جعلی در رسانه‌های تصویری است که محققان در حال حاضر مشتاقانه روی آنها کار می‌کنند. وقتی که هر نوع ویدیویی می‌تواند تولید شود که از شواهد مستند واقعی غیرقابل تشخیص است، ما در دنیایی از مشکلات خواهیم بود.

##

[کد مطلب: 179786] [تاريخ انتشار: پانزدهم فروردين ۱۳۹۸ برابر با چهارم آوريل ۲۰۱۹] [ نسخه مناسب چاپ ]
تقسيم با ديگران:

در زمینه‌ی انتشار نظرات کاربران گرامی رعایت چند مورد ضروری است
  • لطفاً نظرات خود را با حروف فارسی تایپ کنید
  • «پيک ايران» مجاز به ویرایش ادبی نظرات کاربران است
  • مطالبی که حاوی کلمات رکيک، غير اخلاقی و يا توهين به ديگران باشد منتشر نميشوند
  • نظراتی که پیرامون این خبر نباشد منتشر نمیشود
  • نطرات حاوی لينک منتشر نميشوند
نام: (الزاميست)
نظرات شما (حداکثر تعداد حروف با احتساب فاصله بين حروف 1000 حرف ميباشد):

Captcha
اعدادی را که در تصویر بالا می بینید (بدون فاصله گذاشتن میان آنها) در باکس زير وارد کنید و سپس دکمه ارسال را کليک کنيد
نظرات خوانندگان
آگهی های تجارتی