هوش مصنوعی حالا می تواند داستان بنویسد و روزنامه نگاری کند!

 
ترسناک است یا امیدبخش؟!

به گزارش گاردین، به نظر می‌رسد رویا یا کابوس متنی که کاملا توسط ماشین تولید شده، با خبری که به تازگی اعلام شده که هوش مصنوعی می‌تواند به تنهایی اخبار یا داستان‌های قابل قبول تولید کند، یک قدم به واقعیت نزدیک‌تر شده است. این مخلوق فکری متعلق به شرکت پژوهشی غیرانتفاعی هوش مصنوعی «اوپن ای‌آی» است که به ادبا هشدار می‌دهد که این هوش مصنوعی (که جی‌پی‌تی‌۲ نامیده شده) برایشان خطرناک است زیرا می‌تواند برای ساخت متون عمیقا جعلی و ساختگی به کار گرفته شود.

اوپن ای‌آی گفت: «با توجه به نگرانی‌ها درباره استفاده‌های مخرب از این تکنولوژی، مدل آموزش‌دیده را منتشر نمی‌کنیم.»

آیا این ماشین‌ها به سلاح جدید تروریسم اطلاعاتی تبدیل می‌شوند یا تنها رمان‌نویسان سطح متوسط را از دور به در می‌کنند؟

جی‌پی‌تی۲ از روش‌های تحلیل آماری استفاده می‌کند که توسط مقادیر عظیمی از متن‌های نوشته شده توسط انسان (۴۰ گیگابایت صفحه وب) آموزش دیده است. این رویکرد همان شیوه‌ای است که گوگل ترنسلیت با آن کار می‌کند.

در حال حاضر به نظر می‌رسد که داستان‌نویسان چیز زیادی برای ترسیدن ندارند. وقتی خط اول رمان ۱۹۸۴ جرج اورول را با این مضمون: «یک روز سرد در ماه آوریل بود و ساعت‌ها سیزده را نشان می‌دادند.» به دستگاه دادند، داستان را این‌طور ادامه داد: «در ماشینم در راهِ رفتن به کار جدیدم در سیاتل بودم. بنزین زدم، کلید را چرخاندم و گذاشتم که برود. فقط تصور کردم که امروز چطور خواهد بود. صد سال بعد از این. در ۲۰۴۵ من یک معلم در مدرسه‌ای در بخش فقیر روستایی در چین بودم. با تاریخ چین و علم تاریخ شروع کردم.»

این نوشته به دلایل زیادی گیج‌کننده است. راوی نمی‌تواند شغلی در سیاتل داشته باشد و همزمان در مدرسه‌ای در چین کار کند. داستان می‌بایست در سال ۱۹۴۵ اتفاق افتاده باشد و راوی، آینده شغلی خود را صد سال پس از این با نگاهی نامعقول و خوش‌بینانه به طول عمر خود، تصور می‌کند. حتا در سال ۱۹۴۵ او دارد ماشینی را می‌راند که می‌توان از داخل آن را بنزین زد («در ماشینم بودم... بنزین زدم») و ظاهرا نیازی نیست که آن را براند («گذاشتم که برود»).

اطلاعیه سازندگان مبنی بر خطرناک بودن انتشار این برنامه خوب است اما قانع‌کننده نیست. اوپن ای‌آی هشدار می‌دهد که چنین کُدی می‌تواند برای تولید مقالات خبری گمراه‌کننده مورد استفاده قرار گیرد، اما در حال حاضر هم به هیچ عنوان کمبود اخبار ساختگی نوشته‌شده توسط انسان‌های واقعی را احساس نمی‌کنیم.

نکته اصطلاح «عمیقا جعلی» این است که متونی که این دستگاه‌ تولید می‌کند از هر متنی که هر انسانی می‌تواند بنویسد جعلی‌تر است. با این همه چیزی که بسیار خطرناک‌تر از اطلاعات نادرست نوشته شده توسط کامپیوتر است، خبرهای جعلی در رسانه‌های تصویری است که محققان در حال حاضر مشتاقانه روی آنها کار می‌کنند. وقتی که هر نوع ویدیویی می‌تواند تولید شود که از شواهد مستند واقعی غیرقابل تشخیص است، ما در دنیایی از مشکلات خواهیم بود.

##

[کد مطلب: 179786] [تاريخ انتشار: پانزدهم فروردين ۱۳۹۸ برابر با چهارم آوريل ۲۰۱۹] [ نسخه مناسب چاپ ]
تقسيم با ديگران:

در زمینه‌ی انتشار نظرات کاربران گرامی رعایت چند مورد ضروری است
  • لطفاً نظرات خود را با حروف فارسی تایپ کنید
  • «پيک ايران» مجاز به ویرایش ادبی نظرات کاربران است
  • مطالبی که حاوی کلمات رکيک، غير اخلاقی و يا توهين به ديگران باشد منتشر نميشوند
  • نظراتی که پیرامون این خبر نباشد منتشر نمیشود
  • نطرات حاوی لينک منتشر نميشوند
نام: (الزاميست)
نظرات شما (حداکثر تعداد حروف با احتساب فاصله بين حروف 1000 حرف ميباشد):

Captcha
اعدادی را که در تصویر بالا می بینید (بدون فاصله گذاشتن میان آنها) در باکس زير وارد کنید و سپس دکمه ارسال را کليک کنيد
نظرات خوانندگان
ساير مطالب اين بخش
پربازديدهای اين بخش
با داروی ابداعی پژوهشگران ایتالیایی، طاسی در مردان درمان می‌شود
فیلم/ نوع اخبار مضحک صداوسیمای میلی درباره سیل، سوژه طنز «زودنیوز» شد؛ سیل برای ایران رحمت است و برای آمریکا، عذاب الهی!
علت کابوس دیدن مشخص شد
سرآشپز و نویسنده ایرانی‌تبار در فهرست ۱۰۰ چهره تاثیرگذار مجله تایم قرار گرفت
پلیس چگونه از گوگل استفاده می کند؟ / قابلیتی کمتر شناخته شده در کمین کاربران اندروید و Ios
نکاتی برای گرفتن یک عکس خوب با دوربین گوشی 
 آیا تماشای زیاد تلویزیون باعث ابتلا به بیماری زوال عقل می‌شود؟ 
انسان‌ها از چه زمانی شمارش اعداد را شروع کردند؟
اگر «کلیسای نتردام» در ایران بود و می‌سوخت...
کشف دی‌ان‌ای نسل‌هایی از 3800 سال قبل میلاد مسیح
نخستین مولکول های تشکیل جهان رصد شدند
مقام سابق نیوزیلندی به دلیل نصب دوربین در توالت سفارت مجرم شناخته شد
آگهی های تجارتی