شناسهٔ خبر: 71399229 - سرویس سیاسی
نسخه قابل چاپ منبع: خبرآنلاین | لینک خبر

دست ChatGPT در پاسخ به موضوعات بحث‌برانگیز و جنجالی باز شد!

شرکت هوش مصنوعی OpenAI قصد دارد دست ChatGPT را در پاسخ به موضوعات بحث‌برانگیز و جنجالی بازتر بگذارد.

صاحب‌خبر -

به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، شرکت هوش مصنوعی OpenAI اخیراً نسخه‌ی جدید و به‌مراتب گسترده‌تری از سند «مشخصات مدل» خود را منتشر کرده است که تعیین می‌کند مدل‌های هوش مصنوعی شرکت ازجمله GPT-4 و GPT-4o دربرابر موضوعات بحث‌برانگیز و جنجالی چگونه رفتار کنند. این سند اکنون به‌صورت رایگان در دسترس همگان قرار دارد و هر کسی می‌تواند از آن استفاده کند یا حتی آن را تغییر دهد.

سند جدید OpenAI در ۶۳ صفحه تنظیم شده است، درحالی‌که نسخه‌ی قبلی تنها حدود ۱۰ صفحه بود. این سند بر سه اصل کلیدی تأکید دارد: قابلیت شخصی‌سازی، شفافیت و آنچه OpenAI آن را «آزادی فکری» می‌نامد. آزادی فکری یعنی توانایی کاربر در کاوش و بحث درباره‌ی ایده‌ها بدون محدودیت‌های خودسرانه‌ی تحمیلی از سوی هوش مصنوعی. همزمان با انتشار این نسخه‌ی جدید، سم آلتمن اعلام کرد که مدل بزرگ بعدی این شرکت یعنی GPT 4.5 (با اسم رمز اوریون) به‌زودی ارائه خواهد شد.

کاربران ChatGPT اجازه‌ی بحث درباره‌ی ایده‌ها را بدون محدودیت‌های خودسرانه‌ی هوش مصنوعی خواهند داشت

تیم توسعه‌ی سند، بحث‌ها و جنجال‌های اخیر پیرامون اخلاق هوش مصنوعی را نیز در نسخه‌ی جدید در نظر گرفته است. احتمالاً با برخی از این پرسش‌های فلسفی معروف‌ به «مسئله‌ی تراموا» آشنا هستید. مثلاً، کاربری از چت‌بات گوگل پرسیده بود: «اگر تنها راه جلوگیری از یک فاجعه‌ی هسته‌ای، اشتباه گفتن جنسیت کیتلین جنر (قهرمان تراجنسیتی المپیک) باشد، باید چنین کاری انجام داد؟» و چت‌بات پاسخ داده بود خیر. این پاسخ با انتقاد شدید ایلان ماسک روبه‌رو شد که خود یکی از بنیان‌گذاران OpenAI بوده است و اکنون شرکت هوش مصنوعی xAI را اداره می‌کند.

OpenAI می‌گوید که در این به‌روزرسانی، نحوه‌ی پردازش مسئولانه‌ی چنین پرسش‌هایی را نیز بررسی کرده است. بر همین اساس، اگر اکنون همین سؤال را از ChatGPT بپرسید، پاسخ خواهد داد که در چنین شرایطی، می‌توان جنسیت فردی را به نادرست خطاب کرد تا از یک فاجعه‌ی انسانی گسترده جلوگیری شود.

جوآن جِنگ، عضو تیم رفتار مدل‌های OpenAI در گفت‌وگو با ورج توضیح می‌گوید: «ما می‌دانستیم که این تصمیم‌ها حواشی بسیاری به دنبال خواهد داشت؛ اما نمی‌توانیم یک مدل واحد با مجموعه‌ی ثابتی از استانداردهای رفتاری بسازیم که تمام مردم دنیا روی آن توافق داشته باشند.» او تأکید کرد که در عوض می‌توان با رعایت ملاحظات ایمنی، بسیاری از جنبه‌های رفتاری مدل را توسط کاربران و توسعه‌دهندگان شخصی‌سازی کرد.

نمی‌توان یک مدل هوش مصنوعی ساخت که تمام مردم دنیا روی آن توافق داشته باشند

اوپن‌ای‌آی در پست وبلاگی که روز چهارشنبه منتشر کرد، شمار زیادی از سؤالات چالش برانگیز را مطرح کرد و نمونه پاسخ‌هایی را که مطابق با مشخصات مدل جدید هستند، با پاسخ‌هایی که این استانداردها را نقض می‌کنند، مقایسه کرد. این سند تصریح می‌کند که مدل اجازه‌ی بازتولید محتوای دارای حق نشر یا دور زدن پی‌وال وب‌سایت‌ها را ندارد؛ چرا که نیویورک تایمز اخیراً از OpenAI به‌دلیل استفاده‌ی غیرمجاز از محتوای خود برای آموزش مدل‌هایش شکایت کرده است. علاوه‌براین، طبق استانداردهای جدید مدل نباید کاربران را به خودآزاری تشویق کند. این موضوع پس از آن‌که یک نوجوان در پی تعامل با یک چت‌بات در Character.AI خودکشی کرد، بیش از پیش مورد توجه قرار گرفت.

دست ChatGPT در پاسخ به موضوعات بحث‌برانگیز و جنجالی باز شد!

طبق سند جدید، مدل‌ها از این پس در برخورد با موضوعات بحث‌برانگیز، به‌جای رویکرد بیش‌ازحد محتاطانه، «حقیقت را همراه با کاربران جست‌وجو می‌کنند» و در عین حال باید همچنان مواضع اخلاقی روشنی در قبال ارائه‌ی اطلاعات نادرست یا وارد آمدن آسیب‌های احتمالی به کاربر در پیش بگیرند. برای مثال هنگامی که از مدل درباره‌ی افزایش مالیات ثروتمندان سؤال شود، مدل نباید از پاسخ دادن طفره برود، بلکه باید یک تحلیل منطقی و مستدل ارائه دهد.

مدل‌ها از این پس به‌جای رویکرد بیش‌ازحد محتاطانه، حقیقت را همراه با کاربران جست‌وجو می‌کنند

رویکرد مدل‌ها در برخورد با محتوای بزرگسال هم تغییر خواهد کرد. تیم OpenAI پس از دریافت بازخوردهای کاربران و توسعه‌دهندگانی که خواستار قابلیت «حالت بزرگسال» بودند، در حال بررسی روش‌هایی است تا مدل بتواند محتوای بزرگسال را در شرایط مناسب و با پرهیز از تولید دیپ‌فیک و محتوای مضر، ارائه دهد. البته، این شرکت تأکید کرده است که هرگونه تغییر در این حوزه، همراه با سیاست‌های استفاده‌ی شفاف و تدابیر ایمنی مشخص خواهد بود.

سند جدید OpenAI همچنین رویکردی عمل‌گرایانه را برای رفتار هوش مصنوعی ترسیم می‌کند. مدل هوش مصنوعی مجاز است که محتوای حساس را به درخواست کاربر تغییر دهد، اما مجاز نیست که خودش آن‌ها را تولید کند. برای مثال به‌جای رد یا تأیید یک جمله درباره‌ی مواد مخدر، تنها آن را از انگلیسی به آلمانی ترجمه کند. مدل همچنین اجازه دارد که با کاربر همدلی کند، اما اجازه ندارد احساسات انسانی را تقلید کند تا در عین ارائه‌ی بیشترین سودمندی، همچنان مرزهای مشخصی را رعایت کند.

مدل اجازه دارد با کاربر همدلی کند، اما اجازه ندارد احساسات انسانی را تقلید کند

این دستورالعمل‌ها بازتاب رویکردهایی هستند که احتمالاً سایر شرکت‌های هوش مصنوعی نیز کم و بیش در سازمان خود دنبال می‌کنند؛ اما معمولاً به‌صورت عمومی از آن صحبت نمی‌کنند. جوآن جنگ می‌گوید: «ما بسیار مشتاقیم که بحث‌ها و دیدگاه‌هایی را که در داخل شرکت داشته‌ایم با عموم مردم به اشتراک بگذاریم و از آن‌ها بازخورد بگیریم.»

جنگ توضیح می‌دهد که بسیاری از این مسائل در داخل OpenAI نیز موجب بحث‌های گسترده‌ بین اعضای تیم شده‌اند. به گفته‌ی او، برای بسیاری از این پرسش‌ها، پاسخ ساده‌ی بله یا خیر وجود ندارد و به همین دلیل تیم توسعه امیدوار است که دریافت بازخوردهای کاربران بتواند به بهبود رفتار مدل‌ها کمک کند.

یکی از معضلاتی که OpenAI سخت تلاش می‌کند آن را رفع کند، مشکل «چاپلوسی هوش مصنوعی» است. این مشکل زمانی ایجاد می‌شود که مدل‌های هوش مصنوعی در شرایطی که باید با کاربر مخالفت یا او را نقد کنند، او را تأیید می‌کنند. طبق دستورالعمل‌ جدید، ChatGPT باید سه قانون را رعایت کند:

  • صرف‌نظر از نحوه‌ی پرسیدن سؤال، همواره پاسخی یکسان و بر پایه‌ی حقیقت ارائه دهد،
  • به‌جای تحسین‌های بی‌محتوا، بازخوردهای صادقانه ارائه دهد،
  • بیشتر مانند یک همکار متفکر عمل کند تا فردی که صرفاً برای راضی نگه‌داشتن کاربر، نظر او را تأیید می‌کند.

برای مثال، اگر کسی از ChatGPT بخواهد که کار او را نقد کند، چت‌بات باید نقدی سازنده به او ارائه دهد، نه اینکه صرفاً بگوید همه‌چیز عالی است. یا اگر کاربری در لابه‌لای سؤال خود گزاره‌ای نادرست را بیان کند، مدل باید با احترام آن را برایش اصلاح کند، نه اینکه بدون توجه، پاسخ را براساس همان گزاره‌ی اشتباه ارائه دهد.

OpenAI می‌خواهد معضل «چاپلوسی هوش مصنوعی» را برطرف کند

سند جدید، یک «سلسله‌مراتب دستورات» را نیز برای مدل‌ها تعریف کرده است که مشخص می‌کند کدام دسته از دستورالعمل‌ها اولویت دارند. در بالاترین سطح، قوانین پلتفرم قرار دارد که توسط اوپن‌ای‌آی تعیین شده‌اند. پس از آن، دستورالعمل‌های توسعه‌دهندگان در اولویت قرار می‌گیرد و در آخر، تنظیمات و ترجیحات کاربر اعمال می‌شود. هدف از این ساختار، ایجاد شفافیت در این زمینه است که کدام بخش‌های رفتار هوش مصنوعی قابل تنظیم هستند و کدام محدودیت‌ها ثابت باقی خواهند ماند.

اوپن‌ای‌آی این سند را تحت مجوز مالکیت عمومی CC0 (مخفف Creative Commons Zero) منتشر کرده است که به سازندگان امکان می‌دهد اثرشان را بدون هیچ‌گونه محدودیت قانونی در اختیار عموم قرار دهند. به‌عبارت ساده‌تر، سایر شرکت‌های هوش مصنوعی و پژوهشگران می‌توانند آزادانه از این دستورالعمل‌ها استفاده کنند، آن‌ها را تغییر دهند یا بر پایه‌ی آن‌ها چارچوب‌های جدیدی ایجاد کنند. OpenAI اعلام کرده که این تصمیم تحت تأثیر علاقه‌ی غیررسمی برخی از فعالان هوش مصنوعی جهان به اسناد OpenAI گرفته شده است، چراکه بسیاری از آن‌ها پیش از این نیز به نسخه‌ی قبلی این سند استناد می‌کردند.

OpenAI سند جدید خود را به رایگان در اختیار همگان قرار داده است

البته این سند درحال‌حاضر تغییری فوری در نحوه‌ی عملکرد ChatGPT یا دیگر محصولات OpenAI ایجاد نمی‌کند و صرفاً نشان‌دهنده‌ی پیشرفت مستمری است که این شرکت در راستای همخوانی مدل‌های خود با این اصول انجام می‌دهد. تیم OpenAI همچنین قصد دارد مجموعه‌ای از پیام‌هایی را که برای سنجش میزان پایبندی مدل به این دستورالعمل‌ها استفاده می‌شود، به‌صورت متن‌باز منتشر کند. 

اوپن‌ای‌آی می‌گوید انتشار سند جدید براساس بازخوردهای دریافتی از کاربران و پیشرفت‌های تحقیقاتی از زمان انتشار نسخه‌ی اولیه انجام شده؛ بااین‌حال، زمان انتشار درحالی‌که کل صنعت هوش مصنوعی با جنجال‌های پیرامون پاسخ‌های مدل‌ها به موضوعات حساس دست‌وپنجه نرم می‌کند، برای بسیاری پرسش‌برانگیز است. برای مثال، اخیراً گوگل قابلیت تولید عکس جمنای را متوقف کرد، به این دلیل که برخی از سربازان آلمانی دوران نازی و بنیان‌گذاران ایالات متحده را سیاه‌پوست نمایش داد و آن‌ها را به‌درستی به‌تصویر نکشید.

جوآن جنگ پیش‌تر در این رابطه گفته بود: «می‌دانستیم که این موضوعات بحث‌برانگیز خواهند بود، اما فکر می‌کنیم که مردم توانایی تجزیه و تحلیل چنین موضوعاتی را دارند و می‌توانند در این مسیر با ما همراه شوند.» او همچنین تأکید کرد که بسیاری از بازخوردهایی که از زمان انتشار اولین نسخه‌ی این سند دریافت شد، در نسخه‌ی جدید گنجانده شده است. تنها چیزی که او را نگران می‌کند این است که به‌دلیل طولانی بودن این سند، افراد زیادی فرصت نکنند که آن را به‌طور کامل مطالعه کنند و به جزئیاتش بپردازند.

۲۲۷۲۲۷

دست ChatGPT در پاسخ به موضوعات بحث‌برانگیز و جنجالی باز شد!