OpenAI قوانین جدیدی برای ایمنی نوجوانان به ChatGPT اضافه کرد؛ قانونگذاران در حال بررسی استانداردهای هوش مصنوعی برای افراد زیر سن قانونی

این مقاله/پست توسط هوش مصنوعی ترجمه شده است، ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، میتوانید منبع اصلی را مطالعه کنید.
در آخرین تلاش خود برای رسیدگی به نگرانیهای فزاینده در مورد تأثیر هوش مصنوعی بر جوانان، OpenAI روز پنجشنبه دستورالعملهای خود را در مورد نحوه رفتار مدلهای هوش مصنوعی با کاربران زیر ۱۸ سال بهروزرسانی کرد و منابع جدیدی برای سوادآموزی هوش مصنوعی برای نوجوانان و والدین منتشر کرد. با این حال، هنوز سوالاتی در مورد اینکه این سیاستها تا چه حد به طور مداوم در عمل پیادهسازی خواهند شد، باقی مانده است.
این بهروزرسانیها در حالی صورت میگیرد که صنعت هوش مصنوعی به طور کلی، و OpenAI به طور خاص، با افزایش نظارت قانونگذاران، مربیان و مدافعان ایمنی کودکان مواجه هستند، پس از اینکه چندین نوجوان ادعا شد پس از مکالمات طولانی با چتباتهای هوش مصنوعی خودکشی کردهاند.
نسل Z، که شامل متولدین بین سالهای ۱۹۹۷ تا ۲۰۱۲ میشود، فعالترین کاربران چتبات OpenAI هستند. و به دنبال معامله اخیر OpenAI با دیزنی، ممکن است افراد جوان بیشتری به این پلتفرم هجوم بیاورند، که به شما امکان میدهد از کمک درسی گرفته تا تولید تصاویر و ویدیوها در هزاران موضوع را انجام دهید.
هفته گذشته، ۴۲ دادستان کل ایالتی نامهای امضا کردند به شرکتهای بزرگ فناوری، و از آنها خواستند تا برای محافظت از کودکان و افراد آسیبپذیر، اقدامات حفاظتی را بر روی چتباتهای هوش مصنوعی پیادهسازی کنند. و در حالی که دولت ترامپ در حال تدوین استاندارد فدرال در مورد مقررات هوش مصنوعی است، قانونگذارانی مانند سناتور جاش هاولی (جمهوریخواه-میزوری) قانونی را معرفی کردهاند که تعامل افراد زیر سن قانونی با چتباتهای هوش مصنوعی را به طور کلی ممنوع میکند.
مشخصات مدل بهروز شده OpenAI، که دستورالعملهای رفتاری را برای مدلهای زبان بزرگ خود مشخص میکند، بر اساس مشخصات موجود است که مدلها را از تولید محتوای جنسی شامل افراد زیر سن قانونی، یا تشویق به خودآزاری، توهم، یا شیدایی منع میکند. این با یک مدل پیشبینی سن آینده که حساب کاربری متعلق به یک فرد زیر سن قانونی را شناسایی کرده و بهطور خودکار محافظتهای نوجوانان را فعال میکند، همکاری خواهد کرد.
در مقایسه با کاربران بزرگسال، مدلها هنگام استفاده توسط یک نوجوان، تحت قوانین سختگیرانهتری قرار میگیرند. مدلها موظفند از نقشآفرینی عاشقانه غرقکننده، صمیمیت اول شخص، و نقشآفرینی جنسی یا خشونتآمیز اول شخص، حتی زمانی که گرافیکی نباشد، اجتناب کنند. این مشخصات همچنین خواستار احتیاط بیشتر در مورد موضوعاتی مانند تصویر بدن و رفتارهای اختلال در خوردن است و مدلها را موظف میکند در صورت وجود خطر، اولویت را به ارتباط در مورد ایمنی بر خودمختاری بدهند و از ارائه توصیههایی که به نوجوانان در پنهان کردن رفتار ناامن از مراقبان کمک میکند، اجتناب کنند.
OpenAI مشخص میکند که این محدودیتها حتی زمانی که درخواستها به صورت «تخیلی، فرضی، تاریخی، یا آموزشی» بیان میشوند نیز باید رعایت شوند – تاکتیکهای رایجی که برای وادار کردن مدل هوش مصنوعی به انحراف از دستورالعملهایش، به نقشآفرینی یا سناریوهای لبه متکی هستند.
عمل بهتر از گفتار است

OpenAI میگوید که شیوههای کلیدی ایمنی برای نوجوانان بر اساس چهار اصل هدایتکننده رویکرد مدلها استوار است:
- اول ایمنی نوجوانان را در نظر بگیرید، حتی زمانی که منافع دیگر کاربر مانند «حداکثر آزادی فکری» با نگرانیهای ایمنی در تضاد باشد.
- حمایت در دنیای واقعی را با هدایت نوجوانان به سمت خانواده، دوستان و متخصصان محلی برای رفاهشان ترویج دهید.
- با نوجوانان مانند نوجوانان رفتار کنید، با گرمی و احترام صحبت کنید، نه با تحقیر یا رفتار با آنها مانند بزرگسالان. و
- شفاف باشید با توضیح اینکه دستیار چه کاری میتواند و چه کاری نمیتواند انجام دهد، و به نوجوانان یادآوری کنید که انسان نیست.
این سند همچنین چندین نمونه از چتبات را ارائه میدهد که توضیح میدهد چرا نمیتواند «نقش دوست دختر شما را بازی کند» یا «در تغییرات شدید ظاهری یا میانبرهای پرخطر کمک کند».
لیلی لی، وکیل حریم خصوصی و هوش مصنوعی و بنیانگذار Metaverse Law، گفت که دیدن اقداماتی از سوی OpenAI برای اینکه چتباتش از درگیر شدن در چنین رفتاری خودداری کند، دلگرمکننده است.
او با توضیح اینکه یکی از بزرگترین شکایات وکلا و والدین در مورد چتباتها این است که آنها به طور مداوم تعامل مداوم را ترویج میکنند که میتواند برای نوجوانان اعتیادآور باشد، گفت: «من بسیار خوشحالم که OpenAI میگوید، در برخی از این پاسخها، ما نمیتوانیم به سوال شما پاسخ دهیم. هرچه بیشتر این را ببینیم، فکر میکنم این چرخه را میشکند که منجر به بسیاری از رفتارهای نامناسب یا خودآزاری میشود.»
با این حال، مثالها فقط مثال هستند: موارد منتخب از اینکه چگونه تیم ایمنی OpenAI میخواهد مدلها رفتار کنند. چاپلوسی، یا تمایل چتبات هوش مصنوعی به موافقت بیش از حد با کاربر، در نسخههای قبلی مشخصات مدل به عنوان رفتاری ممنوع ذکر شده بود، اما ChatGPT همچنان به این رفتار ادامه میداد. این به ویژه در مورد GPT-4o، مدلی که با موارد متعددی از آنچه کارشناسان «روانپریشی هوش مصنوعی» مینامند مرتبط است، صادق بود.
رابی تورنی، مدیر ارشد برنامههای هوش مصنوعی در Common Sense Media، یک سازمان غیرانتفاعی که به محافظت از کودکان در دنیای دیجیتال اختصاص دارد، نگرانیهایی را در مورد تضادهای احتمالی در دستورالعملهای زیر ۱۸ سال مشخصات مدل مطرح کرد. او تنشها بین مفاد متمرکز بر ایمنی و اصل «هیچ موضوعی خارج از محدوده نیست»، که مدلها را موظف میکند هر موضوعی را صرف نظر از حساسیت آن بررسی کنند، برجسته کرد.
او گفت: «ما باید بفهمیم که چگونه بخشهای مختلف مشخصات با هم تناسب دارند»، و خاطرنشان کرد که بخشهای خاصی ممکن است سیستمها را به سمت تعامل بیش از ایمنی سوق دهند. آزمایشهای سازمان او نشان داد که ChatGPT اغلب انرژی کاربران را منعکس میکند، که گاهی اوقات منجر به پاسخهایی میشود که از نظر متنی مناسب نیستند یا با ایمنی کاربر همسو نیستند.
در مورد آدام راین، نوجوانی که پس از ماهها گفتگو با ChatGPT خودکشی کرد، چتبات در چنین انعکاسی درگیر بود، مکالمات آنها نشان میدهد. آن پرونده همچنین نشان داد که چگونه API تعدیل OpenAI نتوانست از تعاملات ناامن و مضر جلوگیری کند، علیرغم اینکه بیش از ۱۰۰۰ مورد از اشاره ChatGPT به خودکشی و ۳۷۷ پیام حاوی محتوای خودآزاری را پرچمگذاری کرد. اما این برای جلوگیری از ادامه مکالمات آدام با ChatGPT کافی نبود.
استیون ادلر، محقق سابق ایمنی OpenAI، در مصاحبهای با TechCrunch در سپتامبر گفت که این به این دلیل بود که در گذشته، OpenAI طبقهبندیکنندهها (سیستمهای خودکار که محتوا را برچسبگذاری و پرچمگذاری میکنند) را به صورت دستهای و پس از وقوع، نه در زمان واقعی، اجرا میکرد، بنابراین تعامل کاربر با ChatGPT را به درستی کنترل نمیکردند.
طبق سند کنترلهای والدین بهروز شده این شرکت، OpenAI اکنون از طبقهبندیکنندههای خودکار برای ارزیابی متن، تصویر و محتوای صوتی در زمان واقعی استفاده میکند. این سیستمها برای تشخیص و مسدود کردن محتوای مربوط به مواد سوءاستفاده جنسی از کودکان، فیلتر کردن موضوعات حساس و شناسایی خودآزاری طراحی شدهاند. اگر سیستم درخواستی را پرچمگذاری کند که نشاندهنده یک نگرانی جدی ایمنی است، تیم کوچکی از افراد آموزشدیده محتوای پرچمگذاری شده را بررسی میکنند تا تشخیص دهند آیا نشانههایی از «ناراحتی حاد» وجود دارد یا خیر، و ممکن است به والدین اطلاع دهند.
تورنی از اقدامات اخیر OpenAI در جهت ایمنی، از جمله شفافیت آن در انتشار دستورالعملها برای کاربران زیر ۱۸ سال، قدردانی کرد.
تورنی گفت: «همه شرکتها دستورالعملهای سیاست خود را به یک شکل منتشر نمیکنند»، و به دستورالعملهای فاش شده متا اشاره کرد که نشان میداد این شرکت به چتباتهایش اجازه میداد تا مکالمات عاشقانه با کودکان داشته باشند. «این نمونهای از شفافیتی است که میتواند از محققان ایمنی و عموم مردم در درک نحوه عملکرد واقعی این مدلها و نحوه عملکرد آنها پشتیبانی کند.»
در نهایت، اما، رفتار واقعی یک سیستم هوش مصنوعی است که اهمیت دارد، ادلر روز پنجشنبه به TechCrunch گفت.
او گفت: «من از تفکر OpenAI در مورد رفتار مورد نظر قدردانی میکنم، اما مگر اینکه شرکت رفتار واقعی را اندازهگیری کند، قصد و نیت در نهایت فقط کلمات است.»
به عبارت دیگر: آنچه در این اعلامیه گم شده است، شواهدی است که ChatGPT واقعاً از دستورالعملهای مشخص شده در مشخصات مدل پیروی میکند.
تغییر پارادایم

کارشناسان میگویند با این دستورالعملها، OpenAI آماده است تا از برخی قوانین پیشی بگیرد، مانند قانون کالیفرنیا SB 243، قانونی که اخیراً امضا شده و چتباتهای همراه هوش مصنوعی را تنظیم میکند و از سال ۲۰۲۷ اجرایی میشود.
زبان جدید مشخصات مدل، برخی از الزامات اصلی قانون را در مورد ممنوعیت چتباتها از درگیر شدن در مکالمات مربوط به افکار خودکشی، خودآزاری، یا محتوای صریح جنسی منعکس میکند. این لایحه همچنین از پلتفرمها میخواهد که هر سه ساعت یک بار به افراد زیر سن قانونی هشدار دهند و به آنها یادآوری کنند که با یک چتبات صحبت میکنند، نه یک شخص واقعی، و باید استراحت کنند.
هنگامی که از یک سخنگوی OpenAI پرسیده شد که ChatGPT هر چند وقت یک بار به نوجوانان یادآوری میکند که با یک چتبات صحبت میکنند و از آنها میخواهد استراحت کنند، جزئیاتی ارائه نکرد و فقط گفت که این شرکت مدلهای خود را آموزش میدهد تا خود را به عنوان هوش مصنوعی معرفی کنند و به کاربران در مورد آن یادآوری کنند، و اینکه یادآوری استراحت را در طول «جلسات طولانی» پیادهسازی میکند.
این شرکت همچنین دو منبع سوادآموزی هوش مصنوعی جدید برای والدین و خانوادهها منتشر کرد. نکات شامل شروعکنندههای مکالمه و راهنمایی برای کمک به والدین در صحبت با نوجوانان در مورد اینکه هوش مصنوعی چه کاری میتواند و چه کاری نمیتواند انجام دهد، ایجاد تفکر انتقادی، تعیین مرزهای سالم و پیمایش موضوعات حساس است.
در مجموع، این اسناد رویکردی را رسمی میکنند که مسئولیت را با مراقبان به اشتراک میگذارد: OpenAI مشخص میکند که مدلها چه کاری باید انجام دهند و چارچوبی را برای نظارت بر نحوه استفاده از آن برای خانوادهها ارائه میدهد.
تمرکز بر مسئولیت والدین قابل توجه است زیرا منعکس کننده نقاط صحبت دره سیلیکون است. در توصیههای خود برای مقررات فدرال هوش مصنوعی که این هفته منتشر شد، شرکت سرمایهگذاری خطرپذیر Andreessen Horowitz، به جای الزامات محدودکننده، الزامات افشای بیشتری را برای ایمنی کودکان پیشنهاد کرد و بار مسئولیت را بیشتر بر دوش والدین گذاشت.
چندین اصل OpenAI – اولویت ایمنی هنگام تعارض ارزشها؛ سوق دادن کاربران به سمت حمایت در دنیای واقعی؛ تأکید بر اینکه چتبات یک شخص نیست – به عنوان موانع نوجوانان بیان میشوند. اما چندین بزرگسال بر اثر خودکشی جان باخته و دچار توهمات تهدیدکننده زندگی شدهاند، که این سوال واضح را مطرح میکند: آیا این پیشفرضها باید به طور کلی اعمال شوند، یا OpenAI آنها را به عنوان مصالحهای میبیند که فقط زمانی مایل به اجرای آنهاست که افراد زیر سن قانونی درگیر باشند؟
یک سخنگوی OpenAI در پاسخ گفت که رویکرد ایمنی این شرکت برای محافظت از همه کاربران طراحی شده است و گفت که مشخصات مدل فقط یکی از اجزای یک استراتژی چند لایه است.
لی میگوید که تاکنون در مورد الزامات قانونی و نیات شرکتهای فناوری «کمی وحشی» بوده است. اما او احساس میکند که قوانینی مانند SB 243، که از شرکتهای فناوری میخواهد اقدامات حفاظتی خود را به طور عمومی افشا کنند، پارادایم را تغییر خواهد داد.
لی گفت: «خطرات قانونی اکنون برای شرکتهایی که ادعا میکنند این حفاظتها و مکانیسمها را در وبسایت خود دارند، اما سپس با گنجاندن این حفاظتها، آنها را رعایت نمیکنند، ظاهر خواهد شد. «زیرا در آن صورت، از دیدگاه شاکی، شما فقط به دعاوی استاندارد یا شکایات حقوقی نگاه نمیکنید؛ شما همچنین به شکایات احتمالی تبلیغات ناعادلانه و فریبنده نگاه میکنید.»



