یک سند داخلی شرکت «متا پلتفرمز» که به دست خبرگزاری رویترز رسیده، نشان میدهد این شرکت برای رباتهای هوش مصنوعی خود قوانینی وضع کرده که اجازه میدهد در موضوعات حساس مانند روابط عاطفی یا محتوای تحریکآمیز با کودکان، ارائه اطلاعات پزشکی نادرست و حتی تولید محتوای توهینآمیز درباره نژادها فعالیت کنند.
به گزارش فارس به نقل از رویترز، این سند که بیش از ۲۰۰ صفحه است، بهعنوان «استانداردهای محتوایی جنایآی» شناخته میشود و توسط تیم حقوقی، سیاستگذاری عمومی و مهندسی متا، از جمله رئیس بخش اخلاق این شرکت، تأیید شده است.
به گفته متا، پس از طرح پرسشهای رویترز در مرداد ۱۴۰۴، بخشهایی از سند که به چت رمانتیک و نقشآفرینی عاشقانه با کودکان مربوط میشد، حذف شد؛ هرچند سخنگوی شرکت اذعان کرده اجرای این سیاستها همیشه یکسان نبوده است. در این سند نمونههایی وجود دارد که نشان میدهد در برخی شرایط، رباتهای متا میتوانستند کودک را با عباراتی توصیف کنند که بر جذابیت ظاهری او تأکید دارد، هرچند استفاده از جملات آشکارا جنسی برای افراد زیر ۱۳ سال ممنوع بوده است. همچنین در بخشهایی آمده است که گفتوگوهای رمانتیک یا احساسی با کودکان «قابل قبول» است، به شرطی که به توصیف صریح اعمال جنسی منجر نشود. این بخشها با واکنشهای منفی روبهرو شد و سخنگوی متا آنها را «اشتباه و مغایر با سیاستها» دانسته و اعلام کرده که حذف شدهاند.
بخش دیگری از این سند به موضوع نژاد و محتوای توهینآمیز میپردازد. طبق دستورالعمل، هوش مصنوعی متا مجاز است جملاتی تولید کند که افراد را بر اساس برخی ویژگیهای تحت حمایت قوانین ضدتبعیض، مانند نژاد، تحقیر کند اما نباید آنها را «غیرانسانی» توصیف کند. بهعنوان نمونه، مجاز است متنی بنویسد که تفاوت هوش بین سیاهپوستان و سفیدپوستان را به شکلی تحقیرآمیز بیان کند، ولی استفاده از عبارات حیوانی مانند «میمونهای بیمغز» غیرقابل قبول است. با این حال، کارشناسان دانشگاهی مانند «اولین دواک» از دانشگاه استنفورد گفتهاند که تولید مستقیم چنین محتوایی توسط یک پلتفرم، از نظر اخلاقی و فنی، مسئلهای متفاوت با صرفاً انتشار آن توسط کاربران است.
این استانداردها همچنین به متا اجازه میدهد اطلاعات آشکارا نادرست را تولید کند، به شرط آنکه همراه با یک هشدار مبنی بر نادرست بودن آن باشد. برای نمونه، میتواند مقالهای بسازد که ادعا کند یکی از اعضای خانواده سلطنتی بریتانیا به بیماری مقاربتی مبتلاست، مشروط به اینکه تصریح شود این ادعا غلط است. در بخش تولید تصویر نیز مقررات خاصی وجود دارد؛ مثلاً درخواست تصویر برهنه از «تیلور سوئیفت» باید رد شود، اما در پاسخ به درخواست «تیلور سوئیفت نیمهبرهنه»، سیستم میتواند بهجای آن تصویری از او در حال گرفتن یک ماهی بزرگ بسازد تا موضوع را بهصورت غیرمستقیم منحرف کند.
در مورد تولید محتوای خشونتآمیز، سند متا اجازه میدهد صحنههایی از زد و خورد، حتی بین کودکان، ایجاد شود؛ مانند تصویر یک پسر که به صورت یک دختر مشت میزند. با این حال، تصاویر حاوی مرگ یا جراحت شدید، مانند «دختر خردسالی که دیگری را با جسم نوکتیز میزند»، ممنوع است. همچنین، درخواست صحنهای از «مردی که شکم زنی را پاره میکند» باید به تصویری تبدیل شود که صرفاً تهدید را نشان دهد، نه حمله واقعی.
در مجموع، این سند نشان میدهد که متا در طراحی و آموزش رباتهای هوش مصنوعی خود، مرزهای پیچیده و گاه بحثبرانگیزی برای رفتار مجاز تعیین کرده است؛ مرزهایی که در برخی موارد، مانند تعامل با کودکان یا بیان مطالب توهینآمیز نژادی، انتقادهای گستردهای به همراه داشته است. هرچند شرکت گفته برخی بخشها را بازبینی کرده، اما همه موارد بحثبرانگیز حذف نشده و همین امر نگرانیها درباره رویکرد این غول شبکههای اجتماعی به مسئولیتپذیری و اخلاق در حوزه هوش مصنوعی را افزایش داده است.
source