شناسهٔ خبر: 76941380 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

آیا می‌توان به GPT-5.2 اعتماد کرد؟

استناد چت‌جی‌پی‌تی به دانشنامه هوش مصنوعی Grokipedia؛ زنگ خطر برای AI؟

گزارش تازه گاردین نشان می‌دهد مدل GPT-5.2 شرکت OpenAI در برخی موضوعات حساس از دانشنامه هوش مصنوعی گراکی‌پدیا متعلق به xAI ایلان ماسک به‌عنوان منبع استفاده کرده است؛ موضوعی که پرسش‌هایی جدی درباره اعتبار منابع هوش مصنوعی ایجاد می‌کند.

صاحب‌خبر -
آزمایش‌هایی که روزنامه گاردین انجام داده نشان می‌دهد مدل GPT-5.2 شرکت OpenAI بخشی از اطلاعات خود را از یک دانشنامه آنلاین تولیدشده توسط هوش مصنوعی به نام Grokipedia که متعلق به شرکت xAI ایلان ماسک است، تأمین کرده است.

به گزارش ایتنا و به نقل از Engadget، اگرچه OpenAI مدل GPT-5.2 را «پیشرفته‌ترین مدل مرزی برای کارهای حرفه‌ای» نامیده، اما بررسی‌های گاردین تردیدهایی جدی درباره اعتبار آن ایجاد کرده است. بر اساس این گزارش، مدل GPT-5.2 در موضوعات مشخص اما حساس، از جمله مباحث مرتبط با ایران یا هولوکاست، به Grokipedia به‌عنوان منبع اطلاعاتی استناد کرده است.

طبق گزارش گاردین، چت‌جی‌پی‌تی در پاسخ به پرسش‌هایی درباره ارتباط دولت ایران با شرکت مخابراتی MTN-ایرانسل و همچنین سوالاتی مرتبط با ریچارد ایوانز، تاریخ‌دان بریتانیایی که در جریان دادگاه افترا مربوط به منکر هولوکاست «دیوید ایروینگ» به‌عنوان کارشناس حضور داشت، از گراکی‌پدیا استفاده کرده است. با این حال، گاردین اشاره می‌کند که چت‌جی‌پی‌تی در پاسخ به پرسشی درباره جانبداری رسانه‌ها علیه دونالد ترامپ و برخی دیگر از موضوعات جنجالی، به گراکی‌پدیا ارجاع نداده است.

 

OpenAI مدل GPT-5.2 را در ماه دسامبر منتشر کرد تا عملکرد بهتری در کاربردهای حرفه‌ای مانند ساخت صفحه‌گسترده‌ها (Spreadsheet) یا انجام وظایف پیچیده داشته باشد. گراکی‌پدیا پیش از عرضه GPT-5.2 راه‌اندازی شده بود، اما پس از آن با حاشیه‌هایی روبه‌رو شد؛ از جمله زمانی که مشخص شد این دانشنامه به انجمن‌های نئونازی به‌عنوان منبع استناد کرده است. همچنین پژوهشی از سوی محققان آمریکایی نشان داد که این دانشنامه مبتنی بر هوش مصنوعی به منابعی «مشکوک» و «مسئله‌دار» ارجاع می‌دهد.

در واکنش به گزارش گاردین، شرکت OpenAI اعلام کرد که مدل GPT-5.2 برای پاسخ‌گویی، وب را به‌منظور دسترسی به «طیف گسترده‌ای از منابع و دیدگاه‌های عمومی در دسترس» جست‌وجو می‌کند، اما هم‌زمان از «فیلترهای ایمنی» استفاده می‌شود تا خطر نمایش لینک‌های مرتبط با آسیب‌های جدی کاهش یابد.