Wp Header Logo 1979.png

به گزارش سرویس فرهنگی و اجتماعی خبرگزاری رسا، «چت‌جی‌بی‌تی» که رونمایی شد، هوش‌مصنوعی و مدل زبانی بزرگ(LLM) به شکل خیره‌کننده‌ای در مرکز توجه دنیا قرار گرفت؛ خیلی زود بقیه غول‌های فناوری هم دست‌به‌کار شدند و ربات‌های گفتگوی مشابه را معرفی کردند. کاربردهای ریزودرشت و خارق‌العاده این چت‌بات‌ها، همه را به تکاپو انداخت برای خدمات مختلف، از قابلیت‌های آن‌ها استفاده کنند. از تولید متن و عکس و ویدئو تا کدنویسی و انجام پروژه‌های نرم‌افزاری.

اما این میان، ‌از یک سمت تاریکِ ماجرا غفلت شد: هوش‌مصنوعی همانقدر که در کدنویسی و ساختن عکس و ویدئو ماهر است،‌ می‌تواند یک هکر حرفه‌ای باشد که حتی کاربران باتجربه را هم فریب بدهد. ابعاد این موضوع حتی پیچیده‌تر هم می‌شود و حتی می‌تواند الگوریتم‌ها و سازوکارهای مقابله با تقلب و کلاهبرداری در سیستم‌های مالی را نیز هدف بگیرد.

این مطلب، آخرین یافته‌ها در خصوص خطرات امنیتی هوش‌مصنوعی در حوزه‌های سیستم‌های مالی است که توسط وحید خدابخشی،‌ مدیر امنیت و ریسک شبکه الکترونیکی پرداخت کارت(شاپرک) در همایش Cash24 ارائه شده است و در دو بخش منتشر می‌شود. بخش اول به این موضوع می‌پردازد که هوش‌مصنوعی چطور می‌تواند به‌عنوان یک شمشیر دولبه،‌ هم به‌عنوان یک ابزار برای دفاع، هشیاری و مقابله با حملات سایبری در اختیار ما قرار بگیرد و هم  در لبه دیگر به‌عنوان یک ابزار نفوذ در اختیار هکرها و مهاجمین سایبری قرار بگیرد. در بخش دوم اقدامات فنی و حکمرانی که برای تقابل با این موضوع باید در پیش گرفت، ‌مورد بررسی قرار خواهد گرفت.

یک نبرد پایاپای در دفاع و حمله

هوش مصنوعی در کنار محاسبات کوانتومی و مواردی مثل ژنومیک یا فناوری‌های نوین، در حال حاضر حرف اول را در بحث تکنولوژی می‌زند؛ از سال 2021 تا همین اکنون در سال ۲۰۲۴، ما شاهد رشد انفجاری مدل‌های یادگیری ماشین و به طور خاص هوش مصنوعی مولد هستیم.

در یک نگاه کلی اگر بخواهیم به وضعیت استفاده از فناوری هوش مصنوعی نگاه کنیم باید بگوییم که هم در حوزه دفاع و هم حمله، به‌صورت پایاپای در حال پیشروی هستند. یعنی در حال حاضر ابزارهایی داریم که بتوانند در مقابل حملات سایبری ما را تجهیز کنند و هم به‌عنوان یک سلاح ویرانگر توسط  بدخواهان و هکرها مورداستفاده قرار بگیرند و زیرساخت‌های ما را تحت‌تأثیر قرار بدهند.

به‌عنوان‌مثال یکی از خطرات امنیتی جدی در این حوزه، آلوده‌سازی فرایند آموزش مدل‌های هوش مصنوعی است که در حال تبدیل‌شدن به یک چالش جدی است؛ یعنی مهاجمان می‌توانند یک مدل هوش مصنوعی را درگیر کنند و در نهایت به‌صورت خیلی خاموش وارد یک سازمان شوند.

هیچ‌چیزی رایگان نیست

بحث «حمله زنجیره تامین» بسیار موضوع مهمی است و در حال حاضر شاید یکی از معضلاتی که در کشور ما وجود دارد و هیچ فکری هم برای آن نکرده‌ایم، همین باشد. یکی از نمونه‌های مهم آن رشد فزاینده بانکداری دیجیتال است که استفاده از زیرساخت‌های آماده منبع‌باز مانند API در این ساختار، نگران‌کننده است؛ ما به طور گسترده و هیجان‌زده،‌ در حال هوشمندکردن ابزارهای و داده‌ها و زنجیره تأمین خود هستیم و فکر می‌کنیم ابزارهای که در دسترس داریم از منابع معتبر تأمین می‌شود درحالی‌که این‌گونه نیست و هیچ‌چیزی رایگان نیست. به این خاطر که تعداد زیادی از این‌ها بدون اینکه متوجه باشیم به‌صورت خاموش جاسوسی ما را انجام می‌دهند و خود را برای روزهایی آماده می‌کنند که قرار است ما دچار حملات گسترده‌تر شویم.

سرچشمه چگونه آلوده می‌شود؟

در کنفرانس «بلک‌هت آسیا ۲۰۲۳» چند نمونه از این حملات مثال زده شد که یکی از آن‌ها در سال ۲۰۲۲ و اوایل ۲۰۲۳ در چین انجام شد.

ابتدا به سازوکار تشخیص تقلب در سیستم بانکی نگاهی بیندازیم. مدل‌های یادگیری ماشین (Machine Learning) به طور گسترده برای تشخیص تقلب و کلاهبرداری در سیستم مالی مورداستفاده قرار می‌گیرد. ابزاری کدنویسی می‌شود که قرار است رفتارهای عادی را از غیرعادی که احتمالا حمله هستند تفکیک کند.

این کار به این صورت انجام می‌شود که انبوه اطلاعاتی که تا الان جمع‌آوری شده را برچسب می‌زنیم که کدام رفتار در تراکنش‌های بانکی، درست و کدام غلط است و مدل‌ها با این داده‌ها آموزش می‌بینند. پس از آن هر ورودی به مدل بدهید بر اساس یادگیری، شباهت‌سنجی و شناخت الگوهایی که تا الان انجام داده یک برچسب قرمز یا سبز تحویل می‌دهد.

در حمله چین،‌ افرادی تحت عنوان ارتش سایبری، تعدادی از مدل‌هایی که قرار بوده در سیستم مالی چین و آمریکا تقلب را شناسایی کنند را مورد تمرکز قرار دادند. این هکرها سعی کردند منبع این داده‌ها را سمی کنند. به‌عنوان‌مثال داده‌های موجود در گیت‌هاب را به این صورت آلوده کردند که به‌صورت خیلی ظریف،‌ رفتار درست را به‌عنوان رفتار غلط برچسب زدند و با توجه به وجود انبوهی از اطلاعات، انسان نمی‌توانست این موضوع تشخیص دهد.

هدف اصلی این عملیات، وقوع یک فلج سراسری در حوزه مالی بود و در نتیجه آن بخش مربوط تشخیص تقلب در برخی از بانک‌های بزرگ دنیا مورد حمله قرار گرفت و طی ۶ ماه، تمام خروجی‌های آن آلوده شد. وزارت دفاع چین البته اعلام کرد این یک آزمایش و مانور بوده است.

این سیستم جوری عمل کرده که حملات خاص و الگوهای خاصی از تقلب را عبور داده و برچسب مثبت به آن زده است. این حمله باعث شد که مجموعه کل داده‌هایی که برای آموزش استفاده شده را کنار بگذارند و دوباره مجدد کار آموزش را انجام دهند.

زبان مادری هوش‌مصنوعی، داده‌های ماست

ما درگذشته هوش مصنوعی را به عنوان یک واژه کلی داشتیم که  یادگیری ماشین یک بخش آن بود بخش‌های دیگری هم داشت.  از سال ۲۰۰۶ که مفهوم یادگیری عمیق توسعه پیدا کرد و لایه‌های بیشتری در شبکه‌ها ایجاد شدند دست ما خیلی باز شد. در سال ۲۰۰۶ به‌خاطر فناوری‌های خاصی که در حوزه پردازشگر ایجاد شد و شرکت اینتل توانست معماری موازی را توسعه دهد قدرت محاسباتی ما به‌شدت افزایش یافت و ما می‌توانستیم مسائل پیچیده‌تر را حل کنیم و نهایتا منجر شد به یادگیری عمیق که گوگل اولین‌بار استفاده کرد. بعد از اینکه یادگیری عمیق توسعه پیدا کرد مفهوم هوش‌مصنوعی مولد شاید در سال ۲۰۱۴ مطرح شد.

این یک خطر بزرگ است

هوش مصنوعی مولد (Generative AI) همانطور که از اسم آن مشخص است، مولد است؛ یعنی می‌تواند رفتاری را تقلید کند و بسیار شبیه به آن رفتار را انجام دهد. در واقع چت‌جی‌پی‌تی و تمام ابزارهایی که در حال حاضر می‌بینید که از جنس هوش مصنوعی مولد هستند ابزارهایی هستند که تعداد زیادی رفتارهای برچسب زده شده از انسان، کتاب‌ها، ویدئوها و صداها جمع‌آوری کردند و نهایتا آن‌ها را تقلید می‌کنند. در واقع زبان مادری هوش‌مصنوعی مولد، هر آن چیزی هست که ما در اینترنت قرار داده‌ایم.

به تصور من شاید اولین اتفاقی که در حوزه این تکنولوژی افتاد، تهاجم بود و ما یک حجم فزاینده‌ای در خصوص فیشینگ، بدافزارهای جدید و تقلید رفتارهای پیچیده بدافزار را داشتیم.

 کاری که هوش مصنوعی مولد در حوزه تهاجم انجام می‌دهد هم بحث بدافزار است، هم فیشینگ.

قبلا در فیشینگ،‌ یک ایمیل سفارشی‌شده برای افراد زیادی ارسال می‌شد؛‌ اما ما در حال حاضر مواجه شدیم با مجموعه‌ای از فیشینگ‌ها که به‌صورت هدفمند مدیران ارشد صنایع مختلف و مخصوص صنایع مالی را هدف قرار می‌دهد. ویس، ویدئو و عکس تمام افرادی که در اینجا سخنرانی کردند در اینترنت است و ساختن یک آواتار که بتواند متنی شبیه صحبت‌کردن این فرد یا صدای آنها را تولید کند بسیار آسان است. به‌عنوان‌مثال تصور کنید در حال حاضر همین‌جا نشسته‌اید و یک پیام در واتس‌اپ برای شما بیاید که مثلا درخواست پول دارد و وقتی پیام صوتی را هم گوش می‌کنید، صدای همین فرد است.

از طرفی چت‌جی‌پی‌تی می‌تواند کدهای مختلف تولید و آسیب‌پذیری آن را بررسی و شبیه کدهای آلوده را برای شما تولید کند. در یک تحقیق مجموعه زیادی از بدافزارها به شکل‌های کاملا خلاقانه توسط هوش‌مصنوعی تولید شده به‌طوری که حتی به نمونه اولیه‌ای که به آن داده شده، شباهت چندانی نداشت. این خیلی خطر بزرگی است یعنی شما با مجموعه‌ای از ابزارهای جاسوسی مواجه می‌شوید که حملات منع سرویس و انواع حملات سایبری دیگر بر اساس آن‌ها اتفاق می‌افتد.

source