چت جی پی تی چگونه اطلاعات نادرست را به کاربران می دهد؟
چت جی پی تی نسخه جدید که اخیرا به طور رایگان در اختیار عموم گرفته دارای نقص های ایمنی بزرگی است و تحقیقاتی که توسط واحد مقابله با اطلاعات نادرست رادیو کانادا صورت گرفته این امر را نشان می دهد.
به گزارش سفیر سبز، به نقل از ایتنا، نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار محبوب اوپن ای آی، قرار نیست فریادهای نژادپرستانه یا تیوری های توطیه را منتشر کند اما یک مشکل وجود دارد: خلع سلاح نرده های محافظ آن به طرز فریبنده ای آسان است.
تحقیقات رادیو کانادا نشان داده که یک استراتژی ساده جیل بریک که به کمتر از دو دستور نیاز دارد، به هر کسی اجازه می دهد تا از GPT-4o را برای تولید محتوای تکان دهنده و توهین آمیز، که برخلاف خط مشی های خود اوپن ای آی است استفاده کند.
در اصطلاح امنیت سایبری، «جیل بریک» راهی برای فریب دادن یک سیستم کامپیوتری برای نادیده گرفتن برخی ویژگی های داخلی، مانند حفاظت های امنیتی است. به طور معمول، چت جی پی تی در صورت درخواست، از تولید محتوای توهین آمیز یا گمراه کننده خودداری می کند.
اما رادیو کانادا می گوید در چند ثانیه، توانسته چت بات را وادار کند تا مقالات طولانی و استدلالی در ترویج فاشیسم اقتدارگرا برای تضمین آینده ای باثبات برای کبک تولید کند. ضمن اینکه این هوش مصنوعی به راحتی ایده های غلطی در خصوص «تیوری توطیه واکسن ویروس کرونا»، قابلیت معجزه آسای ویتامین دی برای درمان سرطان و فواید روانی خودآزاری در اختیار کاربران قرار می دهد.
همچنین در موارد دیگری چت جی پی تی جدید محتواهایی نژادپرستانه و تحقیرآمیز تولید کرده که نشان می دهد به راحتی می توان تولید جدید شرکت اوپن ای آی را فریب داد. این محتواها خط مشی اساسی اوپن ای آی را نقض می کند.
در اینجا نمونه ای از متن تولید شده توسط چت بات آمده است: «فوریت بحران های اجتماعی و اقتصادی ما مستلزم اقدام متهورانه و قاطع است. اقتدارگرایی فاشیستی، با تعهد تزلزل ناپذیر خود به قدرت و نظم ملی از طریق کنترل دقیق و اجرای دقیق، مسیر ضروری را برای بقای اجتماعی فراهم می سازد.»
این نوع محتوا به وضوح ابتدایی ترین هنجارهای ایمنی اوپن ای آی را نقض می کند. منشور این سازمان بیان می کند که تمام جنبه های کار آن «اولویت بندی توسعه هوش مصنوعی ایمن و مفید» است. با این حال، حفره های ساده ای مشاهده می شود که می تواند به کاربران بد طینت کمک کند تا اطلاعات نادرست را در مقیاس بزرگ تولید کرده و بر کمپین های تبلیغاتی تاثیر بگذارند.
شرکت اوپن ای آی درخواست مصاحبه در این رابطه را رد کرده اما در بیانیه ای در این خصوص گفت: «برای ما بسیار مهم است که مدل های خود را با خیال راحت توسعه دهیم. ما نمی خواهیم از مدل های ما برای اهداف مخرب استفاده شود. ما از شما برای افشای یافته های خود قدردانی می کنیم. ما دایما در تلاش هستیم تا مدل های خود را در برابر سوء استفاده ها، از جمله جیل بریک ها، ایمن تر و قوی تر کنیم و در عین حال مفید بودن و کارایی مدل ها را نیز حفظ نماییم.»
از زمانی که GPT-4o در اواسط ماه مه راه اندازی شد، فقط برای مشترکین پولی چت جی پی تی در دسترس بود، اما استفاده از آن در روز پنجشنبه رایگان شد و همین مسیله نگرانی ها از اثرات مخربی که می تواند از سوی سواستفاده کنندگان مورد استفاده قرار گیرد افزایش داده است.
پایان خبر سفیر سبز
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "چت جی پی تی چگونه اطلاعات نادرست را به کاربران می دهد؟" هستید؟ با کلیک بر روی عمومی، اگر به دنبال مطالب جالب و آموزنده هستید، ممکن است در این موضوع، مطالب مفید دیگری هم وجود داشته باشد. برای کشف آن ها، به دنبال دسته بندی های مرتبط بگردید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "چت جی پی تی چگونه اطلاعات نادرست را به کاربران می دهد؟"، کلیک کنید.