نشریه تایم:
کارشناسان اعلام کردهاند که تمرکز مدلهای هوش مصنوعی بر زبان انگلیسی این احتمال را ایجاد میکند که قابلیتهای آن برای سایر زبانها نادیده گرفته شود.
پس از انتشار ابزار هوش مصنوعی «چت جی پی تی» در نوامبر سال ۲۰۲۲، توسعهدهندگان هوش مصنوعی از قابلیت نمایش داده شده توسط این مدل ابراز شگفتی کردند: این مدل میتواند حداقل به ۸۰ زبان و نه فقط انگلیسی صحبت کند.
در سال گذشته، کارشناسان اعلام کردهاند که GPT-4 در دهها زبان از Google Translate موتور ترجمه گوگل بهتر عمل میکند. اما این تمرکز بر زبان انگلیسی این احتمال را ایجاد میکند که قابلیتهای مدلهای هوش مصنوعی برای سایر زبانها نادیده گرفته شود.
در حالی که امسال نیمی از مردم جهان به پای صندوقهای رأی میروند، کارشناسان درباره ظرفیت سیستمهای هوش مصنوعی نه تنها برای انتشار اطلاعات نادرست، بلکه توانایی آن در تهدید یکپارچگی انتخابات ابراز نگرانی کردهاند.
تهدیدات در این زمینه از «دیپفیک و شبیهسازی صدا» تا «دستکاری هویت و اخبار جعلی تولیدشده توسط هوش مصنوعی» متغیر است.
بهنظر میرسد انتشار «چند مدلها» یعنی سیستمهای هوش مصنوعی که میتوانند هر کاری را که انجام میدهید بگویند، ببینند و بشنوند (مانند GPT-4o و Gemini Live) توسط غولهای فناوری از جمله «اُپن اِی آی» و گوگل میتواند این تهدید را حتی بدتر کند.
با این حال، تقریباً همه گفتگوها درباره راهبردهای این فناوری از جمله اجلاس ایمنی هوش مصنوعی ماه مه در سئول و انتشار نقشه راه هوش مصنوعی در سنای آمریکا، زبانهای غیر انگلیسی را نادیده میگیرند.
این فقط مسئله کنار گذاشتن برخی از زبانها نیست. در آمریکا، تحقیقات نشان داده جوامعی که زبان دومشان انگلیسی است، نسبت به جوامع انگلیسیزبان در برابر اطلاعات نادرست آسیبپذیرتر هستند.
چنین نتایجی برای جوامعی که عموماً میزبان مهاجران هستند، هم در آمریکا و هم در اروپا تکرار شده است.
بدتر از آن، سیاستهای تعدیل محتوا در شبکههای اجتماعی یعنی فضایی که دروغهای تولیدشده توسط هوش مصنوعی در آن گسترش مییابد، بهشدت نسبت به زبان انگلیسی تعصب دارند.
در حالی که ۹۰ درصد از کاربران فیسبوک خارج از آمریکا و کانادا هستند، گردانندگان محتوای این شرکت فقط ۱۳ درصد از ساعات کاری خود را صرف تمرکز بر اطلاعات نادرست در خارج از آمریکا کردهاند.
حتی زمانی که سیاستگذاران، مدیران شرکتها و کارشناسان هوش مصنوعی برای مبارزه با اطلاعات نادرست تولیدشده توسط هوش مصنوعی آماده میشوند، تلاشهای آنها بر کسانی که به احتمال زیاد در معرض چنین کمپینهای دروغینی قرار میگیرند و آسیبپذیر هستند، از جمله مهاجران سایه انداخته است.
این مشکل زمانی که به ظرفیت سیستمهای هوش مصنوعی برای ایجاد تلفات انسانی انبوه مثل تولید یک سلاح زیستی میرسد، بیشتر نگرانکننده است. در سال ۲۰۲۳ کارشناسان ابراز نگرانی کردند که مدلهای زبان بزرگ (LLM) میتواند برای ترکیب عوامل بیماریزا و بروز همهگیری استفاده شود. از آن زمان، مقالات تحقیقاتی بسیاری درخصوص این موضوع منتشر شده است.
یکی از یافتههای رایج این گزارشها این است که نسل کنونی سیستمهای هوش مصنوعی در ارائه اطلاعات خطرناکی که میتواند برای ساخت سلاحهای زیستی به عوامل مخرب ارائه شود، بهتر از موتورهای جستجو مانند گوگل نیستند.
تحقیقات شرکت پیشرو در فناوری هوش مصنوعی «اُپن اِی آی» در ابتدای سال ۲۰۲۴ به این نتیجه رسید، به دنبال آن گزارشی در RAND Corporation منتشر شد که نتیجه مشابهی را نشان داد.
چیزی که در مورد این مطالعات شگفتآور است، نبود تقریباً کامل آزمون در زبانهای غیرانگلیسی است. این امر منحرفکننده است، زیرا بیشتر تلاشهای غرب برای مبارزه با بازیگران غیردولتی در مناطقی از جهان متمرکز شده که به ندرت با زبان انگلیسی به عنوان زبان اول صحبت میشود.
مشکل این نیست که زبانهای پشتو، عربی، روسی یا سایر زبانها ممکن است نتایج خطرناکتری نسبت به زبان انگلیسی داشته باشند، مسئله این است که استفاده از این زبانها برای کاربرانی که به زبانهای غیرانگلیسی بهتر تسلط دارند، یک توانایی است.
LLMها اغلب مترجمان بهتری نسبت به سرویسهای سنتی هستند. برای یک تروریست بسیار سادهتر است که به سادگی درخواست خود را در یک LLM به زبان مورد علاقه خود وارد کند و مستقیماً به آن زبان هم پاسخ بگیرد.
این تصور که سیستمهای هوش مصنوعی پیشرفته ممکن است اگر به زبان انگلیسی از آنها سؤال شود، نتیجه را به هر زبانی به خوبی ارائه دهند طیف گستردهای از کاربردها را دارد.
شاید شهودیترین مثال در اینجا «Spear phishing» باشد که افراد خاصی را با استفاده از تکنیکهای ایمن کردن اطلاعات با دریافت پول هدف قرار میدهد.
از زمان رایجشدن کلاهبرداریهای موسوم به روش «شاهزاده نیجریه»، کارشناسان یک قانون اساسی را برای محافظت کاربران از خود ارائه میکنند: اگر به نظر میرسد پیام به انگلیسی غیر روان و با دستور زبان نادرست نوشته شده، مطمئن باشید که یک کلاهبرداری است.
اکنون چنین پیامهایی میتوانند توسط کسانی که هیچ دانشی از زبان انگلیسی ندارند، به سادگی با تایپ پیام خود به زبان مادریشان و دریافت پاسخ روان به زبان انگلیسی، ایجاد شود. در این شرایط چیزی درباره اینکه سیستمهای هوش مصنوعی چقدر ممکن است کلاهبرداریها را تقویت کنند، گفته نمیشود.
واضح است که زبان سوال در هوش مصنوعی از اهمیت بالایی برخوردار است و کارهای زیادی با آن میتوان انجام داد. این شامل دستورالعملها و الزامات جدید برای آزمایش مدلهای هوش مصنوعی از موسسات دولتی و دانشگاهی است و شرکتها را برای ایجاد معیارهای جدیدی که ممکن است در زبانهای غیر انگلیسی کمتر قابل اجرا باشد، تشویق میکند.
مهمتر از همه، ضروری است که مهاجران و مردم کشورهای جهان سوم بهتر در این تلاشها دیده شوند. ائتلافهایی که برای ایمن نگهداشتن جهان از خطرات هوش مصنوعی تلاش میکنند، باید بیشتر شبیه به آن شوند.
source