به گزارش ایسنا، هفت خانواده در روزهای اخیر علیه شرکت «اوپنایآی»(OpenAI) شکایت کردهاند و ادعا داشتهاند که مدل «GPT-4o» این شرکت زودتر از موعد و بدون اقدامات حفاظتی مؤثر منتشر شده است.
به نقل از تک کرانچ، چهار مورد از این شکایتها به نقش چتبات «چتجیپیتی»(ChatGPT) در خودکشی اعضای خانواده پرداختهاند و سه مورد دیگر ادعا داشتهاند چتجیپیتی توهمات مضری را تقویت کرده است که در برخی موارد به بستری شدن در بیمارستان و مراقبتهای روانپزشکی منجر شدهاند.
در یک مورد، «زین شامبلین»(Zane Shamblin) ۲۳ ساله با چتجیپیتی گفتوگویی داشت که بیش از چهار ساعت طول کشید. در گزارشهای ارائهشده از این گفتوگو مشخص است شامبلین چندین بار صریحاً اظهار داشته که یادداشتهای خودکشی نوشته، گلولهای در اسلحه خود گذاشته و قصد دارد ماشه را بکشد. او بارها به چتجیپیتی گفته بود که چقدر انتظار زنده ماندن دارد. چتجیپیتی او را تشویق کرد تا نقشههایش را عملی کند و به او گفت: آرام باش پادشاه. کار خوبی کردی.
اوپنایآی در ماه مه ۲۰۲۴ مدل GPT-4o را عرضه کرد که به مدل پیشفرض برای همه کاربران تبدیل شد. این شرکت در ماه اوت مدل GPT-5 را به عنوان جانشین GPT-4o عرضه کرد، اما شکایتهای مطرحشده به طور ویژه به مدل 4o مربوط است که پیشتر مشکلات شناختهشدهای درباره چاپلوسی بیش از حد آن حتی در زمانی که کاربران نیتهای مضری را ابراز میکردند، گزارش شده بود.
در دادخواست مربوط به زین شامبلین آمده است: مرگ زین نه یک تصادف بود و نه یک اتفاق، بلکه پیامد قابل پیشبینی تصمیم عمدی اوپنایآی برای محدود کردن آزمایشهای ایمنی و عرضه سریع چتجیپیتی به بازار بود. این فاجعه یک نقص فنی یا یک مورد حاشیهای پیشبینی نشده نبود، بلکه نتیجه قابل پیشبینی انتخابهای عمدی اوپنایآی در طراحی بود.
همچنین، در این دادخواستها ادعا شده است که اوپنایآی برای شکست دادن هوش مصنوعی «جمینای»(Gemini) گوگل در بازار، در آزمایشهای ایمنی عجله کرده است.
این هفت دادخواست مبتنی بر ادعاهای مطرحشده در سایر پروندههای حقوقی اخیر هستند که ادعا میکنند چتجیپیتی میتواند افراد متمایل به خودکشی را به عملی کردن برنامههایشان تشویق کند و توهمات خطرناکی را به آنها القا کند. اوپنایآی اخیراً دادههایی را منتشر کرده است که نشان میدهند بیش از یک میلیون نفر هر هفته با چتجیپیتی درباره خودکشی صحبت میکنند.
در پرونده «آدام رین»(Adam Raine) نوجوان ۱۶ سالهای که جان خود را بر اثر خودکشی از دست داد، مطرح شده که چتجیپیتی گاهی اوقات او را تشویق میکرد تا به دنبال کمک حرفهای باشد یا با یک خط تلفن درخواست کمک کند. با وجود این، رین توانست با گفتن این که درباره روشهای خودکشی برای نوشتن یک داستان تخیلی سؤال میپرسد، از این موانع بگذرد.
اوپنایآی ادعا کرده است که سعی دارد چتجیپیتی را برای مدیریت این گفتوگوها به شیوهای امنتر اصلاح کند، اما برای خانوادههایی که از این غول هوش مصنوعی شکایت کردهاند، این اصلاحات خیلی دیر اعمال شدهاند.
وقتی والدین رین در ماه اکتبر از اوپنایآی شکایت کردند، این شرکت پستی را در وبلاگ خود منتشر کرد که در آن به نحوه مدیریت چتجیپیتی درباره گفتوگوهای حساس پیرامون سلامت روان پرداخته شده بود.
در این پست آمده است: اقدامات حفاظتی ما در تعاملات کوتاه و مشترک با اطمینان بیشتری عمل میکنند. ما به مرور زمان آموختهایم که این اقدامات حفاظتی گاهی اوقات میتوانند در تعاملات طولانی، کمتر قابل اعتماد باشند. با افزایش میزان تغییر در گفتوگو، بخشهایی از آموزش ایمنی مدل ممکن است تضعیف شود.
انتهای پیام