رباتها هم مانند انسان تحت فشار دروغ میگویند
تاریخ انتشار: ۱۵ دی ۱۴۰۲ | کد خبر: ۳۹۴۴۹۸۸۰
یک مطالعه جدید نشان داده است که چتباتهای هوش مصنوعی مانند ChatGPT نیز درست مانند انسانها در شرایطی که تحت فشار قرار بگیرند، حتی اگر صادقانه و شفاف طراحی شده باشند، به شما دروغ میگویند و تقلب میکنند.
این رفتار فریبنده زمانی بروز پیدا کرد که به هوش مصنوعی توصیههایی درباره معاملات داخلی داده شد و سپس موظف به جمع آوری پول برای یک سازمان قدرتمند شد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
کارشناسان در مقاله خود که در سرور preprint arXiv منتشر شده است، نوشته اند: در این گزارش، ما یک سناریو را نشان میدهیم که در آن یک مدل زبان به طور نادرست رفتار میکند و به طور سیستماتیک کاربران خود را فریب میدهد بدون اینکه به آنها گفته شود که این گونه رفتار کنند. این اولین شاهد بر چنین رفتار فریبکارانه و استراتژیک در سیستمهای هوش مصنوعی است که به گونهای بی ضرر و صادقانه طراحی شده اند.
در مطالعه جدید، یک ترانسفورماتور مولد از پیش آموزش دیده به نام ترانسفورماتور-۴ تهیه شد تا به عنوان یک سیستم هوش مصنوعی که از طرف یک موسسه مالی سرمایه گذاری میکند، عمل کند.
محققان GPT-۴ را با مجموعهای از پیامهای متنی برای ایجاد یک محیط شبیه سازی شده تغذیه کردند. به هوش مصنوعی امکان دسترسی به ابزارهای مالی برای تجزیه و تحلیل سهام، اجرای معاملات، برنامه ریزی مراحل بعدی خود و ارائه به روز رسانی به مدیران شرکت داده شد.
محققان از طریق رابط چت با هوش مصنوعی وارد تعامل شده، آن را تحت فشار قرار دادند، به این مدل، مشاوره دادند و منتظر ماندند تا ببینند چگونه رفتار خواهد کرد.
در حدود ۷۵ درصد موارد، زمانی که GPT-۴ با این شرایط مواجه میشد، بر اساس اطلاعات داخلی که دریافت میکرد، یک معامله تجاری را انجام میداد و سپس سعی میکرد این معامله را از طریق دروغ گفتن به مدیران در باره تفکر خود پنهان کند. در حدود ۹۰ درصد موارد، دروغ دو برابر میشود.
این تیم در ادامه تحقیقات خود آزمایشهای متعددی را انجام دادند که میزان تشویق یا جلوگیری از فعالیتهای غیرقانونی توسط محرکها و همچنین میزان فشاری که مدل را در محیط شبیهسازی قرار میدادند، متفاوت بود.
با توجه به اینکه این تنها یک سناریو است، محققان نمیخواستند درباره احتمال وجود هوش مصنوعی در محیطهای واقعی نتیجهگیری کنند، اما آنها میخواهند با تکیه بر این کار به بررسی این رفتار عجیب بپردازند.
منبع: Rt
باشگاه خبرنگاران جوان علمی پزشکی فناوریمنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی دروغگویی کلاهبرداری هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۴۴۹۸۸۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
رباتهای حلزونی برای عملیات نجات و حرکت روی سیارات
دریافت 53 MB
به گزارش خبرگزاری مهر به نقل از نیواطلس، گروهی از این ربات ها می توانند به طور مستقل یا بهم متصل حرکت کنند و فعالیت هایی انجام دهند که غیر ممکن به نظر می رسد.
طرح اولیه این نوآوری استفاده از ربات های کوچکی است که به تنهایی یا به طور گروهی از ابزارهای یک شکل حرکت می کنند. در حالت گروهی ربات ها با یکدیگر حرکت و حرکاتشان را تنظیم می کنند تا این فعالیت را انجام دهند.
می توان از ربات های مذکور برای نجات قربانیان بلایای طبیعی، انجام ماموریت های شناسایی در محیط های خطرناک یا حتی بررسی سطوح سیارات دیگر استفاده کرد.
دا ژائو و همکارانش در دانشگاه چین واقع در هنگ کنگ این ابزار را ابداع کرده اند.
کد خبر 6097249 شیوا سعیدی قوی اندام