هوش مصنوعی فایل‌های صوتی مخرب را شناسایی می‌کند

 
دانشمندان آمریکایی، نوعی الگوریتم یادگیری ماشینی طراحی کرده‌اند که می‌تواند فایل‌های صوتی مخرب را شناسایی کند.

به گزارش ایسنا و به نقل از مجله "نیچر"(nature)، دانشمندان علوم رایانه، برنامه‌هایی که می‌توانند با طبقه‌بندی فایل‌های صوتی مخرب به عنوان فایل‌های صوتی ایمن، سیستم‌های هوش مصنوعی را فریب بدهند، خنثی کرده‌اند.

این دانشمندان، روشی ابداع کرده‌اند تا برای شناسایی حملات مخرب، قابلیت تشخیص گفتار را به رایانه بدهند. گاهی اوقات، پیام‌های صوتی به رایانه ارسال می‌شوند که شاید خطری برای انسان نداشته باشند اما می‌توانند اطلاعات شخصی کاربران را با استفاده از تجهیزاتی مانند دستیارهای صوتی خانگی به دست آورند.

بسیاری از پیشرفت‌های صورت گرفته در حوزه هوش مصنوعی، از شبکه‌های عصبی مصنوعی حاصل می‌شوند که با الهام از مغز انسان طراحی شده‌اند. هنگامی که روش‌هایی از این دست از جمله یادگیری ماشینی در مقیاس بزرگ به کار می‌روند، بدون نیاز به دستورالعمل خاصی، الگوهایی در داده‌ها مشخص می‌کنند اما الگوریتم‌های مبتنی بر یادگیری عمیق معمولاً با روش‌های اسرارآمیزی کار می‌کنند. دانشمندان موفق شده‌اند تصاویر و ورودی‌های دیگر را به شکل زیرکانه‌ای تغییر دهند تا برای انسان‌ها طبیعی جلوه کنند اما این موضوع در مورد رایانه‌ها متفاوت است.

"بو لی"(Bo Li)، دانشمند علوم رایانه "دانشگاه ایلینوی در اربانا- شمپین"(UIUC) و همکارانش، الگوریتمی طراحی کردند که می‌تواند رونوشتی از یک فایل صوتی کامل و همچنین رونوشتی از یک قسمت آن را ارائه دهد. اگر نسخه رونوشت آن قسمت با رونوشت کل متن مطابقت نداشته باشد، برنامه یک پرچم قرمز رنگ را به نشانه خطر نمایش می‌دهد.

دانشمندان، این روش را روی چندین نوع حمله آزمایش کردند و توانستند فایل‌های صوتی مخرب را شناسایی کنند. بدین ترتیب حتی اگر شخصی که سیستم را مورد حمله قرار می‌دهد، مراقب سیستم دفاعی باشد، باز هم حمله‌ها شناسایی می‌شوند.

مبارزه میان حملات مخرب و اقدامات متقابل آن، به بازی موش و گربه شباهت دارد و عجیب نیست که دانشمندان هنوز برای گسترش سپر تدافعی در برابر این حملات تلاش کنند.

[کد مطلب: 182579] [تاريخ انتشار: بيست و چهارم ارديبهشت ۱۳۹۸ برابر با چهاردهم مه ۲۰۱۹] [ نسخه مناسب چاپ ]
تقسيم با ديگران:

در زمینه‌ی انتشار نظرات کاربران گرامی رعایت چند مورد ضروری است
  • لطفاً نظرات خود را با حروف فارسی تایپ کنید
  • «پيک ايران» مجاز به ویرایش ادبی نظرات کاربران است
  • مطالبی که حاوی کلمات رکيک، غير اخلاقی و يا توهين به ديگران باشد منتشر نميشوند
  • نظراتی که پیرامون این خبر نباشد منتشر نمیشود
  • نطرات حاوی لينک منتشر نميشوند
نام: (الزاميست)
نظرات شما (حداکثر تعداد حروف با احتساب فاصله بين حروف 1000 حرف ميباشد):

Captcha
اعدادی را که در تصویر بالا می بینید (بدون فاصله گذاشتن میان آنها) در باکس زير وارد کنید و سپس دکمه ارسال را کليک کنيد
نظرات خوانندگان
آگهی های تجارتی


پايان آگهی های تجارتی

سرخط اخبار پيک ايران در سايت شما

كد زير را كپى كنيد و در جاى مناسب در سايت خود قرار دهيد


Contact us: