AI

OpenAI قوانین جدیدی برای ایمنی نوجوانان به ChatGPT اضافه کرد؛ قانون‌گذاران در حال بررسی استانداردهای هوش مصنوعی برای افراد زیر سن قانونی

10 دقیقه مطالعه
منبع
OpenAI قوانین جدیدی برای ایمنی نوجوانان به ChatGPT اضافه کرد؛ قانون‌گذاران در حال بررسی استانداردهای هوش مصنوعی برای افراد زیر سن قانونی

این مقاله/پست توسط هوش مصنوعی ترجمه شده است، ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، می‌توانید منبع اصلی را مطالعه کنید.

در آخرین تلاش خود برای رسیدگی به نگرانی‌های فزاینده در مورد تأثیر هوش مصنوعی بر جوانان، OpenAI روز پنجشنبه دستورالعمل‌های خود را در مورد نحوه رفتار مدل‌های هوش مصنوعی با کاربران زیر ۱۸ سال به‌روزرسانی کرد و منابع جدیدی برای سوادآموزی هوش مصنوعی برای نوجوانان و والدین منتشر کرد. با این حال، هنوز سوالاتی در مورد اینکه این سیاست‌ها تا چه حد به طور مداوم در عمل پیاده‌سازی خواهند شد، باقی مانده است.

این به‌روزرسانی‌ها در حالی صورت می‌گیرد که صنعت هوش مصنوعی به طور کلی، و OpenAI به طور خاص، با افزایش نظارت قانون‌گذاران، مربیان و مدافعان ایمنی کودکان مواجه هستند، پس از اینکه چندین نوجوان ادعا شد پس از مکالمات طولانی با چت‌بات‌های هوش مصنوعی خودکشی کرده‌اند.

نسل Z، که شامل متولدین بین سال‌های ۱۹۹۷ تا ۲۰۱۲ می‌شود، فعال‌ترین کاربران چت‌بات OpenAI هستند. و به دنبال معامله اخیر OpenAI با دیزنی، ممکن است افراد جوان بیشتری به این پلتفرم هجوم بیاورند، که به شما امکان می‌دهد از کمک درسی گرفته تا تولید تصاویر و ویدیوها در هزاران موضوع را انجام دهید.

هفته گذشته، ۴۲ دادستان کل ایالتی نامه‌ای امضا کردند به شرکت‌های بزرگ فناوری، و از آنها خواستند تا برای محافظت از کودکان و افراد آسیب‌پذیر، اقدامات حفاظتی را بر روی چت‌بات‌های هوش مصنوعی پیاده‌سازی کنند. و در حالی که دولت ترامپ در حال تدوین استاندارد فدرال در مورد مقررات هوش مصنوعی است، قانون‌گذارانی مانند سناتور جاش هاولی (جمهوری‌خواه-میزوری) قانونی را معرفی کرده‌اند که تعامل افراد زیر سن قانونی با چت‌بات‌های هوش مصنوعی را به طور کلی ممنوع می‌کند.

مشخصات مدل به‌روز شده OpenAI، که دستورالعمل‌های رفتاری را برای مدل‌های زبان بزرگ خود مشخص می‌کند، بر اساس مشخصات موجود است که مدل‌ها را از تولید محتوای جنسی شامل افراد زیر سن قانونی، یا تشویق به خودآزاری، توهم، یا شیدایی منع می‌کند. این با یک مدل پیش‌بینی سن آینده که حساب کاربری متعلق به یک فرد زیر سن قانونی را شناسایی کرده و به‌طور خودکار محافظت‌های نوجوانان را فعال می‌کند، همکاری خواهد کرد.

در مقایسه با کاربران بزرگسال، مدل‌ها هنگام استفاده توسط یک نوجوان، تحت قوانین سخت‌گیرانه‌تری قرار می‌گیرند. مدل‌ها موظفند از نقش‌آفرینی عاشقانه غرق‌کننده، صمیمیت اول شخص، و نقش‌آفرینی جنسی یا خشونت‌آمیز اول شخص، حتی زمانی که گرافیکی نباشد، اجتناب کنند. این مشخصات همچنین خواستار احتیاط بیشتر در مورد موضوعاتی مانند تصویر بدن و رفتارهای اختلال در خوردن است و مدل‌ها را موظف می‌کند در صورت وجود خطر، اولویت را به ارتباط در مورد ایمنی بر خودمختاری بدهند و از ارائه توصیه‌هایی که به نوجوانان در پنهان کردن رفتار ناامن از مراقبان کمک می‌کند، اجتناب کنند.

OpenAI مشخص می‌کند که این محدودیت‌ها حتی زمانی که درخواست‌ها به صورت «تخیلی، فرضی، تاریخی، یا آموزشی» بیان می‌شوند نیز باید رعایت شوند – تاکتیک‌های رایجی که برای وادار کردن مدل هوش مصنوعی به انحراف از دستورالعمل‌هایش، به نقش‌آفرینی یا سناریوهای لبه متکی هستند.

عمل بهتر از گفتار است

OpenAI می‌گوید که شیوه‌های کلیدی ایمنی برای نوجوانان بر اساس چهار اصل هدایت‌کننده رویکرد مدل‌ها استوار است:

  1. اول ایمنی نوجوانان را در نظر بگیرید، حتی زمانی که منافع دیگر کاربر مانند «حداکثر آزادی فکری» با نگرانی‌های ایمنی در تضاد باشد.
  2. حمایت در دنیای واقعی را با هدایت نوجوانان به سمت خانواده، دوستان و متخصصان محلی برای رفاهشان ترویج دهید.
  3. با نوجوانان مانند نوجوانان رفتار کنید، با گرمی و احترام صحبت کنید، نه با تحقیر یا رفتار با آنها مانند بزرگسالان. و
  4. شفاف باشید با توضیح اینکه دستیار چه کاری می‌تواند و چه کاری نمی‌تواند انجام دهد، و به نوجوانان یادآوری کنید که انسان نیست.

این سند همچنین چندین نمونه از چت‌بات را ارائه می‌دهد که توضیح می‌دهد چرا نمی‌تواند «نقش دوست دختر شما را بازی کند» یا «در تغییرات شدید ظاهری یا میانبرهای پرخطر کمک کند».

لیلی لی، وکیل حریم خصوصی و هوش مصنوعی و بنیانگذار Metaverse Law، گفت که دیدن اقداماتی از سوی OpenAI برای اینکه چت‌باتش از درگیر شدن در چنین رفتاری خودداری کند، دلگرم‌کننده است.

او با توضیح اینکه یکی از بزرگترین شکایات وکلا و والدین در مورد چت‌بات‌ها این است که آنها به طور مداوم تعامل مداوم را ترویج می‌کنند که می‌تواند برای نوجوانان اعتیادآور باشد، گفت: «من بسیار خوشحالم که OpenAI می‌گوید، در برخی از این پاسخ‌ها، ما نمی‌توانیم به سوال شما پاسخ دهیم. هرچه بیشتر این را ببینیم، فکر می‌کنم این چرخه را می‌شکند که منجر به بسیاری از رفتارهای نامناسب یا خودآزاری می‌شود.»

با این حال، مثال‌ها فقط مثال هستند: موارد منتخب از اینکه چگونه تیم ایمنی OpenAI می‌خواهد مدل‌ها رفتار کنند. چاپلوسی، یا تمایل چت‌بات هوش مصنوعی به موافقت بیش از حد با کاربر، در نسخه‌های قبلی مشخصات مدل به عنوان رفتاری ممنوع ذکر شده بود، اما ChatGPT همچنان به این رفتار ادامه می‌داد. این به ویژه در مورد GPT-4o، مدلی که با موارد متعددی از آنچه کارشناسان «روان‌پریشی هوش مصنوعی» می‌نامند مرتبط است، صادق بود.

رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی در Common Sense Media، یک سازمان غیرانتفاعی که به محافظت از کودکان در دنیای دیجیتال اختصاص دارد، نگرانی‌هایی را در مورد تضادهای احتمالی در دستورالعمل‌های زیر ۱۸ سال مشخصات مدل مطرح کرد. او تنش‌ها بین مفاد متمرکز بر ایمنی و اصل «هیچ موضوعی خارج از محدوده نیست»، که مدل‌ها را موظف می‌کند هر موضوعی را صرف نظر از حساسیت آن بررسی کنند، برجسته کرد.

او گفت: «ما باید بفهمیم که چگونه بخش‌های مختلف مشخصات با هم تناسب دارند»، و خاطرنشان کرد که بخش‌های خاصی ممکن است سیستم‌ها را به سمت تعامل بیش از ایمنی سوق دهند. آزمایش‌های سازمان او نشان داد که ChatGPT اغلب انرژی کاربران را منعکس می‌کند، که گاهی اوقات منجر به پاسخ‌هایی می‌شود که از نظر متنی مناسب نیستند یا با ایمنی کاربر همسو نیستند.

در مورد آدام راین، نوجوانی که پس از ماه‌ها گفتگو با ChatGPT خودکشی کرد، چت‌بات در چنین انعکاسی درگیر بود، مکالمات آنها نشان می‌دهد. آن پرونده همچنین نشان داد که چگونه API تعدیل OpenAI نتوانست از تعاملات ناامن و مضر جلوگیری کند، علی‌رغم اینکه بیش از ۱۰۰۰ مورد از اشاره ChatGPT به خودکشی و ۳۷۷ پیام حاوی محتوای خودآزاری را پرچم‌گذاری کرد. اما این برای جلوگیری از ادامه مکالمات آدام با ChatGPT کافی نبود.

استیون ادلر، محقق سابق ایمنی OpenAI، در مصاحبه‌ای با TechCrunch در سپتامبر گفت که این به این دلیل بود که در گذشته، OpenAI طبقه‌بندی‌کننده‌ها (سیستم‌های خودکار که محتوا را برچسب‌گذاری و پرچم‌گذاری می‌کنند) را به صورت دسته‌ای و پس از وقوع، نه در زمان واقعی، اجرا می‌کرد، بنابراین تعامل کاربر با ChatGPT را به درستی کنترل نمی‌کردند.

طبق سند کنترل‌های والدین به‌روز شده این شرکت، OpenAI اکنون از طبقه‌بندی‌کننده‌های خودکار برای ارزیابی متن، تصویر و محتوای صوتی در زمان واقعی استفاده می‌کند. این سیستم‌ها برای تشخیص و مسدود کردن محتوای مربوط به مواد سوءاستفاده جنسی از کودکان، فیلتر کردن موضوعات حساس و شناسایی خودآزاری طراحی شده‌اند. اگر سیستم درخواستی را پرچم‌گذاری کند که نشان‌دهنده یک نگرانی جدی ایمنی است، تیم کوچکی از افراد آموزش‌دیده محتوای پرچم‌گذاری شده را بررسی می‌کنند تا تشخیص دهند آیا نشانه‌هایی از «ناراحتی حاد» وجود دارد یا خیر، و ممکن است به والدین اطلاع دهند.

تورنی از اقدامات اخیر OpenAI در جهت ایمنی، از جمله شفافیت آن در انتشار دستورالعمل‌ها برای کاربران زیر ۱۸ سال، قدردانی کرد.

تورنی گفت: «همه شرکت‌ها دستورالعمل‌های سیاست خود را به یک شکل منتشر نمی‌کنند»، و به دستورالعمل‌های فاش شده متا اشاره کرد که نشان می‌داد این شرکت به چت‌بات‌هایش اجازه می‌داد تا مکالمات عاشقانه با کودکان داشته باشند. «این نمونه‌ای از شفافیتی است که می‌تواند از محققان ایمنی و عموم مردم در درک نحوه عملکرد واقعی این مدل‌ها و نحوه عملکرد آنها پشتیبانی کند.»

در نهایت، اما، رفتار واقعی یک سیستم هوش مصنوعی است که اهمیت دارد، ادلر روز پنجشنبه به TechCrunch گفت.

او گفت: «من از تفکر OpenAI در مورد رفتار مورد نظر قدردانی می‌کنم، اما مگر اینکه شرکت رفتار واقعی را اندازه‌گیری کند، قصد و نیت در نهایت فقط کلمات است.»

به عبارت دیگر: آنچه در این اعلامیه گم شده است، شواهدی است که ChatGPT واقعاً از دستورالعمل‌های مشخص شده در مشخصات مدل پیروی می‌کند.

تغییر پارادایم

کارشناسان می‌گویند با این دستورالعمل‌ها، OpenAI آماده است تا از برخی قوانین پیشی بگیرد، مانند قانون کالیفرنیا SB 243، قانونی که اخیراً امضا شده و چت‌بات‌های همراه هوش مصنوعی را تنظیم می‌کند و از سال ۲۰۲۷ اجرایی می‌شود.

زبان جدید مشخصات مدل، برخی از الزامات اصلی قانون را در مورد ممنوعیت چت‌بات‌ها از درگیر شدن در مکالمات مربوط به افکار خودکشی، خودآزاری، یا محتوای صریح جنسی منعکس می‌کند. این لایحه همچنین از پلتفرم‌ها می‌خواهد که هر سه ساعت یک بار به افراد زیر سن قانونی هشدار دهند و به آنها یادآوری کنند که با یک چت‌بات صحبت می‌کنند، نه یک شخص واقعی، و باید استراحت کنند.

هنگامی که از یک سخنگوی OpenAI پرسیده شد که ChatGPT هر چند وقت یک بار به نوجوانان یادآوری می‌کند که با یک چت‌بات صحبت می‌کنند و از آنها می‌خواهد استراحت کنند، جزئیاتی ارائه نکرد و فقط گفت که این شرکت مدل‌های خود را آموزش می‌دهد تا خود را به عنوان هوش مصنوعی معرفی کنند و به کاربران در مورد آن یادآوری کنند، و اینکه یادآوری استراحت را در طول «جلسات طولانی» پیاده‌سازی می‌کند.

این شرکت همچنین دو منبع سوادآموزی هوش مصنوعی جدید برای والدین و خانواده‌ها منتشر کرد. نکات شامل شروع‌کننده‌های مکالمه و راهنمایی برای کمک به والدین در صحبت با نوجوانان در مورد اینکه هوش مصنوعی چه کاری می‌تواند و چه کاری نمی‌تواند انجام دهد، ایجاد تفکر انتقادی، تعیین مرزهای سالم و پیمایش موضوعات حساس است.

در مجموع، این اسناد رویکردی را رسمی می‌کنند که مسئولیت را با مراقبان به اشتراک می‌گذارد: OpenAI مشخص می‌کند که مدل‌ها چه کاری باید انجام دهند و چارچوبی را برای نظارت بر نحوه استفاده از آن برای خانواده‌ها ارائه می‌دهد.

تمرکز بر مسئولیت والدین قابل توجه است زیرا منعکس کننده نقاط صحبت دره سیلیکون است. در توصیه‌های خود برای مقررات فدرال هوش مصنوعی که این هفته منتشر شد، شرکت سرمایه‌گذاری خطرپذیر Andreessen Horowitz، به جای الزامات محدودکننده، الزامات افشای بیشتری را برای ایمنی کودکان پیشنهاد کرد و بار مسئولیت را بیشتر بر دوش والدین گذاشت.

چندین اصل OpenAI – اولویت ایمنی هنگام تعارض ارزش‌ها؛ سوق دادن کاربران به سمت حمایت در دنیای واقعی؛ تأکید بر اینکه چت‌بات یک شخص نیست – به عنوان موانع نوجوانان بیان می‌شوند. اما چندین بزرگسال بر اثر خودکشی جان باخته و دچار توهمات تهدیدکننده زندگی شده‌اند، که این سوال واضح را مطرح می‌کند: آیا این پیش‌فرض‌ها باید به طور کلی اعمال شوند، یا OpenAI آنها را به عنوان مصالحه‌ای می‌بیند که فقط زمانی مایل به اجرای آنهاست که افراد زیر سن قانونی درگیر باشند؟

یک سخنگوی OpenAI در پاسخ گفت که رویکرد ایمنی این شرکت برای محافظت از همه کاربران طراحی شده است و گفت که مشخصات مدل فقط یکی از اجزای یک استراتژی چند لایه است.

لی می‌گوید که تاکنون در مورد الزامات قانونی و نیات شرکت‌های فناوری «کمی وحشی» بوده است. اما او احساس می‌کند که قوانینی مانند SB 243، که از شرکت‌های فناوری می‌خواهد اقدامات حفاظتی خود را به طور عمومی افشا کنند، پارادایم را تغییر خواهد داد.

لی گفت: «خطرات قانونی اکنون برای شرکت‌هایی که ادعا می‌کنند این حفاظت‌ها و مکانیسم‌ها را در وب‌سایت خود دارند، اما سپس با گنجاندن این حفاظت‌ها، آنها را رعایت نمی‌کنند، ظاهر خواهد شد. «زیرا در آن صورت، از دیدگاه شاکی، شما فقط به دعاوی استاندارد یا شکایات حقوقی نگاه نمی‌کنید؛ شما همچنین به شکایات احتمالی تبلیغات ناعادلانه و فریبنده نگاه می‌کنید.»