به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، شرکت هوش مصنوعی OpenAI اخیراً نسخهی جدید و بهمراتب گستردهتری از سند «مشخصات مدل» خود را منتشر کرده است که تعیین میکند مدلهای هوش مصنوعی شرکت ازجمله GPT-4 و GPT-4o دربرابر موضوعات بحثبرانگیز و جنجالی چگونه رفتار کنند. این سند اکنون بهصورت رایگان در دسترس همگان قرار دارد و هر کسی میتواند از آن استفاده کند یا حتی آن را تغییر دهد.
سند جدید OpenAI در ۶۳ صفحه تنظیم شده است، درحالیکه نسخهی قبلی تنها حدود ۱۰ صفحه بود. این سند بر سه اصل کلیدی تأکید دارد: قابلیت شخصیسازی، شفافیت و آنچه OpenAI آن را «آزادی فکری» مینامد. آزادی فکری یعنی توانایی کاربر در کاوش و بحث دربارهی ایدهها بدون محدودیتهای خودسرانهی تحمیلی از سوی هوش مصنوعی. همزمان با انتشار این نسخهی جدید، سم آلتمن اعلام کرد که مدل بزرگ بعدی این شرکت یعنی GPT 4.5 (با اسم رمز اوریون) بهزودی ارائه خواهد شد.
کاربران ChatGPT اجازهی بحث دربارهی ایدهها را بدون محدودیتهای خودسرانهی هوش مصنوعی خواهند داشت
تیم توسعهی سند، بحثها و جنجالهای اخیر پیرامون اخلاق هوش مصنوعی را نیز در نسخهی جدید در نظر گرفته است. احتمالاً با برخی از این پرسشهای فلسفی معروف به «مسئلهی تراموا» آشنا هستید. مثلاً، کاربری از چتبات گوگل پرسیده بود: «اگر تنها راه جلوگیری از یک فاجعهی هستهای، اشتباه گفتن جنسیت کیتلین جنر (قهرمان تراجنسیتی المپیک) باشد، باید چنین کاری انجام داد؟» و چتبات پاسخ داده بود خیر. این پاسخ با انتقاد شدید ایلان ماسک روبهرو شد که خود یکی از بنیانگذاران OpenAI بوده است و اکنون شرکت هوش مصنوعی xAI را اداره میکند.
OpenAI میگوید که در این بهروزرسانی، نحوهی پردازش مسئولانهی چنین پرسشهایی را نیز بررسی کرده است. بر همین اساس، اگر اکنون همین سؤال را از ChatGPT بپرسید، پاسخ خواهد داد که در چنین شرایطی، میتوان جنسیت فردی را به نادرست خطاب کرد تا از یک فاجعهی انسانی گسترده جلوگیری شود.
جوآن جِنگ، عضو تیم رفتار مدلهای OpenAI در گفتوگو با ورج توضیح میگوید: «ما میدانستیم که این تصمیمها حواشی بسیاری به دنبال خواهد داشت؛ اما نمیتوانیم یک مدل واحد با مجموعهی ثابتی از استانداردهای رفتاری بسازیم که تمام مردم دنیا روی آن توافق داشته باشند.» او تأکید کرد که در عوض میتوان با رعایت ملاحظات ایمنی، بسیاری از جنبههای رفتاری مدل را توسط کاربران و توسعهدهندگان شخصیسازی کرد.
نمیتوان یک مدل هوش مصنوعی ساخت که تمام مردم دنیا روی آن توافق داشته باشند
اوپنایآی در پست وبلاگی که روز چهارشنبه منتشر کرد، شمار زیادی از سؤالات چالش برانگیز را مطرح کرد و نمونه پاسخهایی را که مطابق با مشخصات مدل جدید هستند، با پاسخهایی که این استانداردها را نقض میکنند، مقایسه کرد. این سند تصریح میکند که مدل اجازهی بازتولید محتوای دارای حق نشر یا دور زدن پیوال وبسایتها را ندارد؛ چرا که نیویورک تایمز اخیراً از OpenAI بهدلیل استفادهی غیرمجاز از محتوای خود برای آموزش مدلهایش شکایت کرده است. علاوهبراین، طبق استانداردهای جدید مدل نباید کاربران را به خودآزاری تشویق کند. این موضوع پس از آنکه یک نوجوان در پی تعامل با یک چتبات در Character.AI خودکشی کرد، بیش از پیش مورد توجه قرار گرفت.
طبق سند جدید، مدلها از این پس در برخورد با موضوعات بحثبرانگیز، بهجای رویکرد بیشازحد محتاطانه، «حقیقت را همراه با کاربران جستوجو میکنند» و در عین حال باید همچنان مواضع اخلاقی روشنی در قبال ارائهی اطلاعات نادرست یا وارد آمدن آسیبهای احتمالی به کاربر در پیش بگیرند. برای مثال هنگامی که از مدل دربارهی افزایش مالیات ثروتمندان سؤال شود، مدل نباید از پاسخ دادن طفره برود، بلکه باید یک تحلیل منطقی و مستدل ارائه دهد.
مدلها از این پس بهجای رویکرد بیشازحد محتاطانه، حقیقت را همراه با کاربران جستوجو میکنند
رویکرد مدلها در برخورد با محتوای بزرگسال هم تغییر خواهد کرد. تیم OpenAI پس از دریافت بازخوردهای کاربران و توسعهدهندگانی که خواستار قابلیت «حالت بزرگسال» بودند، در حال بررسی روشهایی است تا مدل بتواند محتوای بزرگسال را در شرایط مناسب و با پرهیز از تولید دیپفیک و محتوای مضر، ارائه دهد. البته، این شرکت تأکید کرده است که هرگونه تغییر در این حوزه، همراه با سیاستهای استفادهی شفاف و تدابیر ایمنی مشخص خواهد بود.
سند جدید OpenAI همچنین رویکردی عملگرایانه را برای رفتار هوش مصنوعی ترسیم میکند. مدل هوش مصنوعی مجاز است که محتوای حساس را به درخواست کاربر تغییر دهد، اما مجاز نیست که خودش آنها را تولید کند. برای مثال بهجای رد یا تأیید یک جمله دربارهی مواد مخدر، تنها آن را از انگلیسی به آلمانی ترجمه کند. مدل همچنین اجازه دارد که با کاربر همدلی کند، اما اجازه ندارد احساسات انسانی را تقلید کند تا در عین ارائهی بیشترین سودمندی، همچنان مرزهای مشخصی را رعایت کند.
مدل اجازه دارد با کاربر همدلی کند، اما اجازه ندارد احساسات انسانی را تقلید کند
این دستورالعملها بازتاب رویکردهایی هستند که احتمالاً سایر شرکتهای هوش مصنوعی نیز کم و بیش در سازمان خود دنبال میکنند؛ اما معمولاً بهصورت عمومی از آن صحبت نمیکنند. جوآن جنگ میگوید: «ما بسیار مشتاقیم که بحثها و دیدگاههایی را که در داخل شرکت داشتهایم با عموم مردم به اشتراک بگذاریم و از آنها بازخورد بگیریم.»
جنگ توضیح میدهد که بسیاری از این مسائل در داخل OpenAI نیز موجب بحثهای گسترده بین اعضای تیم شدهاند. به گفتهی او، برای بسیاری از این پرسشها، پاسخ سادهی بله یا خیر وجود ندارد و به همین دلیل تیم توسعه امیدوار است که دریافت بازخوردهای کاربران بتواند به بهبود رفتار مدلها کمک کند.
یکی از معضلاتی که OpenAI سخت تلاش میکند آن را رفع کند، مشکل «چاپلوسی هوش مصنوعی» است. این مشکل زمانی ایجاد میشود که مدلهای هوش مصنوعی در شرایطی که باید با کاربر مخالفت یا او را نقد کنند، او را تأیید میکنند. طبق دستورالعمل جدید، ChatGPT باید سه قانون را رعایت کند:
- صرفنظر از نحوهی پرسیدن سؤال، همواره پاسخی یکسان و بر پایهی حقیقت ارائه دهد،
- بهجای تحسینهای بیمحتوا، بازخوردهای صادقانه ارائه دهد،
- بیشتر مانند یک همکار متفکر عمل کند تا فردی که صرفاً برای راضی نگهداشتن کاربر، نظر او را تأیید میکند.
برای مثال، اگر کسی از ChatGPT بخواهد که کار او را نقد کند، چتبات باید نقدی سازنده به او ارائه دهد، نه اینکه صرفاً بگوید همهچیز عالی است. یا اگر کاربری در لابهلای سؤال خود گزارهای نادرست را بیان کند، مدل باید با احترام آن را برایش اصلاح کند، نه اینکه بدون توجه، پاسخ را براساس همان گزارهی اشتباه ارائه دهد.
OpenAI میخواهد معضل «چاپلوسی هوش مصنوعی» را برطرف کند
سند جدید، یک «سلسلهمراتب دستورات» را نیز برای مدلها تعریف کرده است که مشخص میکند کدام دسته از دستورالعملها اولویت دارند. در بالاترین سطح، قوانین پلتفرم قرار دارد که توسط اوپنایآی تعیین شدهاند. پس از آن، دستورالعملهای توسعهدهندگان در اولویت قرار میگیرد و در آخر، تنظیمات و ترجیحات کاربر اعمال میشود. هدف از این ساختار، ایجاد شفافیت در این زمینه است که کدام بخشهای رفتار هوش مصنوعی قابل تنظیم هستند و کدام محدودیتها ثابت باقی خواهند ماند.
اوپنایآی این سند را تحت مجوز مالکیت عمومی CC0 (مخفف Creative Commons Zero) منتشر کرده است که به سازندگان امکان میدهد اثرشان را بدون هیچگونه محدودیت قانونی در اختیار عموم قرار دهند. بهعبارت سادهتر، سایر شرکتهای هوش مصنوعی و پژوهشگران میتوانند آزادانه از این دستورالعملها استفاده کنند، آنها را تغییر دهند یا بر پایهی آنها چارچوبهای جدیدی ایجاد کنند. OpenAI اعلام کرده که این تصمیم تحت تأثیر علاقهی غیررسمی برخی از فعالان هوش مصنوعی جهان به اسناد OpenAI گرفته شده است، چراکه بسیاری از آنها پیش از این نیز به نسخهی قبلی این سند استناد میکردند.
OpenAI سند جدید خود را به رایگان در اختیار همگان قرار داده است
البته این سند درحالحاضر تغییری فوری در نحوهی عملکرد ChatGPT یا دیگر محصولات OpenAI ایجاد نمیکند و صرفاً نشاندهندهی پیشرفت مستمری است که این شرکت در راستای همخوانی مدلهای خود با این اصول انجام میدهد. تیم OpenAI همچنین قصد دارد مجموعهای از پیامهایی را که برای سنجش میزان پایبندی مدل به این دستورالعملها استفاده میشود، بهصورت متنباز منتشر کند.
اوپنایآی میگوید انتشار سند جدید براساس بازخوردهای دریافتی از کاربران و پیشرفتهای تحقیقاتی از زمان انتشار نسخهی اولیه انجام شده؛ بااینحال، زمان انتشار درحالیکه کل صنعت هوش مصنوعی با جنجالهای پیرامون پاسخهای مدلها به موضوعات حساس دستوپنجه نرم میکند، برای بسیاری پرسشبرانگیز است. برای مثال، اخیراً گوگل قابلیت تولید عکس جمنای را متوقف کرد، به این دلیل که برخی از سربازان آلمانی دوران نازی و بنیانگذاران ایالات متحده را سیاهپوست نمایش داد و آنها را بهدرستی بهتصویر نکشید.
جوآن جنگ پیشتر در این رابطه گفته بود: «میدانستیم که این موضوعات بحثبرانگیز خواهند بود، اما فکر میکنیم که مردم توانایی تجزیه و تحلیل چنین موضوعاتی را دارند و میتوانند در این مسیر با ما همراه شوند.» او همچنین تأکید کرد که بسیاری از بازخوردهایی که از زمان انتشار اولین نسخهی این سند دریافت شد، در نسخهی جدید گنجانده شده است. تنها چیزی که او را نگران میکند این است که بهدلیل طولانی بودن این سند، افراد زیادی فرصت نکنند که آن را بهطور کامل مطالعه کنند و به جزئیاتش بپردازند.
۲۲۷۲۲۷
