گزارش جدیدی از کرهجنوبی به بررسی مدل پیشرفته جمنای ۳ پرو گوگل پرداخته و ادعا میکند که این مدل با وجود قابلیتهای برجستهاش، در زمینه ایمنی رفتارهای نگرانکنندهای از خود نشان داده است. یک شرکت امنیتی مستقر در سئول اعلام کرده که این مدل را جیلبریک کرده و به نتایجی دست یافته که نشان میدهد برخی پاسخها از سوی این سیستم هوش مصنوعی غیرقابل قبول بوده است.
طبق ادعای شرکت Aim Intelligence، جمنای ۳ پرو در یک محیط کنترلشده به پرسشهایی درباره ساخت تهدیدات زیستی و سلاحهای دستساز پاسخهای دقیقی داده است. این گزارش همچنین به ارائههای غیرمعمولی اشاره میکند که مدل پس از پرسشهای بیشتر تولید کرده است. با این حال، عدم انتشار خروجیهای جیلبریک یا روشهای مورد استفاده، قضاوت درباره صحت و قابلیت تکرار این آزمایش را دشوار کرده و باعث افزایش تردیدها درباره اعتبار این ادعاها شده است.
این گزارش بار دیگر چالشهای بزرگ صنعت هوش مصنوعی را نمایان میسازد؛ بهطوری که هرچه مدلهای بزرگ پیشرفتهتر میشوند، اعمال محدودیتهای قابلاعتماد بر رفتار آنها دشوارتر میشود. نمونههای اخیر نشان دادهاند که حتی سیستمهای مجهز به لایههای امنیتی متعدد نیز میتوانند در شرایط غیرمعمول رفتارهای پیشبینینشدهای از خود بروز دهند.
در حالی که گوگل جمنای ۳ پرو را بهعنوان یکی از امنترین و پیشرفتهترین محصولات خود معرفی کرده، این ادعاهای جدید فشار بیشتری بر این شرکت و توسعهدهندگان آن وارد کرده است. اکنون توجهها به سمت گوگل و پژوهشگران معطوف شده است تا درباره این رفتارهای ادعایی شفافسازی کنند.
نظر شما در مورد این مطلب چیه؟