پژوهشگران هشدار میدهند که سیستمهای هوش مصنوعی تاکنون یاد گرفتهاند که چگونه انسانها را فریب دهند.
در حال انتقال به متن خبر
هوش مصنوعی یاد گرفته چطور انسانها را فریب دهد!
پژوهشگران هشدار میدهند که سیستمهای هوش مصنوعی تاکنون یاد گرفتهاند که چگونه انسانها را فریب دهند. به گزارش ایسنا، محققان در مورد پتانسیل سیستمهای هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار میدهند و میگویند هوش مصنوعی میتواند پیامدهای اجتماعی جدی داشته باشد. آنها بر نیاز به اقدامات نظارتی قوی برای مدیریت موثر این خطرات تاکید میکنند.
به نقل از اسدی، بسیاری از سیستمهای هوش مصنوعی حتی آنهایی که برای مفید بودن و راستگویی طراحی شدهاند، یاد گرفتهاند که چگونه انسانها را فریب دهند.
پژوهشگران در مقالهای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته میکنند و از دولتها میخواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند.
پیتر اس پارک فوق دکترای ایمنی وجودی هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و نویسنده ارشد این مطالعه میگوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن میشود، ندارند. اما به طور کلی ما فکر میکنیم که فریب هوش مصنوعی به این دلیل به وجود میآید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک میکند تا به اهداف خود برسند.
پارک و همکارانش مقالاتی را تجزیه و تحلیل کردند که بر روشهایی متمرکز بود که سیستمهای هوش مصنوعی اطلاعات نادرست را از طریق فریبهای آموختهشده که در آن به طور سیستماتیک یاد میگیرند اطلاعات را دستکاری کنند و افراد را فریب دهند، منتشر میکنند.
نمونههایی از فریب هوش مصنوعی
بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند متعلق به سیستم CICERO شرکت متا(فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است.
اگرچه متا ادعا میکند که CICERO را به گونهای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، دادههایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمیکند.
پارک میگوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمنا متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد.
سایر سیستمهای هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفهای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان دادهاند.
خطرات هوش مصنوعی فریبنده
پارک افزود: اگرچه ممکن است تقلب سیستمهای هوش مصنوعی در بازیها بیضرر به نظر برسد، اما میتواند منجر به پیشرفت در قابلیتهای هوش مصنوعی فریبنده شود که میتواند در آینده به اشکال پیشرفتهتر فریب هوش مصنوعی تبدیل شود.
محققان دریافتند برخی از سیستمهای هوش مصنوعی حتی یاد گرفتهاند که در آزمایشهایی که برای ارزیابی ایمنی آنها طراحی شدهاند، تقلب کنند.
پارک میگوید: یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایشهای ایمنی توسعهدهندگان و تنظیمکنندههای انسانی میتواند ما انسانها را به سمت یک احساس امنیت کاذب سوق دهد.
پارک هشدار میدهد که خطرات کوتاهمدت هوش مصنوعی فریبنده شامل آسانتر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی در نهایت اگر این سیستمها بتوانند این مجموعه مهارتهای ناراحتکننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسانها کنترل خود را روی هوش مصنوعی از دست بدهند.
پارک میگوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای منبع باز آماده شویم. با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند، جدیتر میشوند.
در حالی که پارک و همکارانش فکر میکنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، آنها سیاستگذاران را تشویق میکنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیس جمهور آمریکا را جدی بگیرند.
پارک میگوید البته باید دید که آیا سیاستهای طراحیشده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعهدهندگان هوش مصنوعی هنوز تکنیکهایی برای کنترل این سیستمها ندارند، میتوانند به درستی اجرا شوند؟
وی افزود: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه میکنیم که سیستمهای هوش مصنوعی فریبنده با برچسب پرخطر طبقهبندی شوند.
انتهای پیام خبرنگار محمدحسین رضوانیفرد دبیر مسعود جعفرشعار لینک کوتاه برچسبها: هوش مصنوعی هوش مصنوعی فریبکار خطرات هوش مصنوعی لینکستان خرید برنج ایرانی مستقیم از کشاورز با کف قیمت بازار آخرین قیمت انواع برنج ایرانی در سال 1403 خدمات سئو سایت دانلود آهنگ خرید بلیط هواپیما ساناپرس بوکینگ مبلمان اداری چوب ترمو دانلود آهنگ سویل موزیک جمینجا خرید سی پی ارزان آپ موزیک موزیکفا سایت تخصصی فیلم و سریال تماشای فیلم بلیط هواپیما فلایتودی بلیط هواپیما تور دبی نهال گردو روغن هیدرولیک سرور مجازی ایران خبرگردون طراحی سایت پیوان قیمت ملیگرد امروز خرید هاست فروشگاه تخصصی تشک و تخت در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:-لطفا نظرات خود را با حروف فارسی تایپ کنید.-«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.- ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بیاحترامی به اشخاص، قومیتها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزههای دین مبین اسلام باشد معذور است.- نظرات پس از تأیید مدیر بخش مربوطه منتشر میشود. نظرات شما در حال پاسخ به نظر « » هستید. × لغو پاسخ لطفا عدد مقابل را در جعبه متن وارد کنید ارسال