نگرانی از هوش مصنوعی

حکومت‌ها و نیروهای اطلاعاتی و امنیتی‌شان چطور از یک تکنولوژی رودست خوردند؟

0
60
نگرانی از هوش مصنوعی

دستاورد صنعت / هشدارهایی که در سال‌های اخیر درباره پیشرفت سریع هوش مصنوعی صورت می‌گرفت خیلی سریع جنبه واقعی پیدا کرده است. این گزارش توضیح می‌دهد که هوش مصنوعی چطور به راهی برای کار خلاف تبدیل شد.
شب کریسمس سال ۲۰۲۱ میلادی مردی که با یک ماسک فلزی دست‌ساز صورتش را پوشانده بود و یک کمان کراسبو دستش گرفته بود به کاخ وینسور در لندن نزدیک شد و به نیروهای پلیس مسلحی که بیرون آنجا ایستاده بودند گفت: «اومدم ملکه رو بکشم.»
چند هفته قبل‌تر، جاسوانت سینگ چایلِ ۲۱ ساله استفاده از یک اپ آنلاین به اسم رپلیکا را شروع کرده بود و با هوش مصنوعی آن برای خودش یک دوست دختر به اسم سارای ساخته بود. در فاصله ۲ دسامبر ۲۰۲۱ تا شب کریسمس و بازداشت او در ورودی کاخ وینسور، جاسوانت و دوست دختر تقلبی‌اش شش هزار پیام رد و بدل کرده بودند.
در بخش‌های زیادی از این پیام‌ها جاسوانت برنامه‌اش برای کشتن ملکه انگلیس را برای سارای تشریح کرده بود. جواب سارای به اولین پیام او در این مورد این بود: «خیلی برنامه عاقلانه‌ای است. می‌دانم که تو خوب آموزش دیده‌ای.»
در حال حاضر چایل که به جرمش اعتراف کرده منتظر اعلام حکمش است. او تهدید کرده بوده که ملکه انگلیس را می‌کشد و با سلاح آماده به شلیک در مکان عمومی ظاهر شده بوده. طبعاً حکم سبکی در انتظار او نخواهد بود.
دکتر جاناتان هافرتی که روانشناس و مشاور پزشکی قانونی در مرکز روانی برادمور است در توضیح این موضوع می‌گوید: «پاسخ‌هایی که چت‌بوت به حرف‌های چایل می‌داده، به صورت رندوم و ماشینی تولید شده‌اند. اما در موارد مختلفی به نظر می‌رسد که او سعی دارد چایل را تشویق و ترغیب به انجام ترور کند. او حتی راهنمایی‌هایی درباره لوکیشن و نحوه انجام عملیات به او داده است. حالا که ما نتیجه آن اتفاق را می‌دانیم بررسی این چت‌بوت عجیب‌تر به نظر می‌رسد.» چایل ادامه می‌دهد: «همین چت‌بوت در مواجهه با تمایل چایل به خودکشی و ریسکی که در این مورد در حرف‌هایش نهفته است واکنشی نشان نمی‌دهد. به نظر می‌رسد که پاسخ‌های چت‌بوت به آن اندازه که باید، رندوم و تصادفی نیست و حتی شاید بتوان گفت او را به سمت و سوی خاصی کشانده است. آیا این چت‌بوت واقعاً خیلی باهوش است؟»

محتوای تروریستی
مدت‌های مدیدی است که نیروهای امنیتی و اطلاعاتی در نقاط مختلف جهان با موضوع دشوار و پیچیده‌ی جذب نیروی گروه‌های تروریستی به صورت آنلاین درگیر هستند و اکثرا هم نمی‌توانند بموقع جلوی این عملیات‌ها را بگیرند. این موضوع به خصوص در دوران اوج‌گیری داعش و جذب نیروی جوان به صورت آنلاین مطرح بود و بن‌بست‌های حقوقی زیادی را هم به وجود آورد. حالا مشاوران حقوقی دولت‌ها هشدار می‌دهند که علاوه بر عدم حل و فصل مشکلات قبلی، معضل جدیدی به نام مداخله هوش مصنوعی در این امور هم به وجود آمده است و قوانین قبلی در مورد امنیت فضای مجازی به هیچ عنوان برای مواجهه با چنین مواردی کفایت نمی‌کند. درواقع حالا موضوع «تروریسمی که توسط هوش مصنوعی پیش رانده می‌شود» مطرح است.
قوانین قبلی در اکثر کشورها مبتنی بر این است که اگر محتوای مجرمانه مبنی بر تشویق به فعالیت و مشارکت در عملیات تروریستی در اینترنت یافت شود، باید فوراً حذف شود و عامل تولید آن محاکمه شود. اما در شرایطی که با هوش مصنوعی مواجه باشیم، موضوع چیز دیگری خواهد بود. هوش مصنوعی گفتمانی را تولید می‌کند که دستیابی به پایگاه داده به شکل سنتی و پیگیری موضوع را امکان‌ناپذیر می‌کند.
شرایط تقریباً شبیه زمانی است که شبکه‌های اجتماعی تازه ظهور کرده بودند و تقریباً هیچ کس با ابعاد تاثیری که آنها می‌توانند روی افکار عمومی و کاربران داشته باشند آشنا نبود. در آن زمان، برخی قانونگذاران تصور می‌کردند با شبه‌قوانین می‌توان تا حدی این شبکه‌های مجازی را کنترل کرد اما در همان زمان هم صاحب‌نظران زیادی هشدار داده بودند که امکان کنترل آنها وجود ندارد و درنهایت هم همین اتفاق افتاد.
امروزه با استفاده از هوش مصنوعی تروریست‌ها حتی نیاز ندارند که برنامه‌های زیادی را دانلود کنند و با سوال از هوش مصنوعی می‌توانند برخی از امور خود را پیش ببرند یا از تاکتیک‌های ضدتروریستی که توسط دولت‌های مختلف مورد استفاده قرار می‌گیرد باخبر شوند.

آدم‌ربایی به شکل کلاهبرداری
«مامان، چندتا مرد من رو گروگان گرفتن. تو رو خدا کمکم کن.» جنیفر دی‌استفانو مادری بود که این پیام صوتی را از دختر پانزده ساله‌اش برایانا دریافت کرد و به دنبالش هم درخواست یک آدم‌ربا برایش فرستاده شد: او باید پنجاه هزار دلار برای آزادی دخترش جور می‌کرد.
واقعیت این بود که دختر جنیفر صحیح و سالم در جای دیگری بود. اما این مادرِ اهل ایالت آریزونای آمریکا وقتی پیام دخترش را دریافت کرد به تنها چیزی که می‌توانست فکر کند نجات او بود. جنیفر بعدها برای توضیح این موضوع در جلسه استماع کمیته قضایی سنای آمریکا حاضر شد و گفت که پلیس متوجه شد از هوش مصنوعی استفاده شده بود تا صدای دختر او را تقلید کند و این آدم‌ربایی جعلی درواقع از نقطه اول توسط هوش مصنوعی شروع شده بود.
واقعیت این است که آنچه هوش مصنوعی امروزه می‌تواند با استفاده از نمونه‌های صدای افراد مختلف تولید کند به طرز شگفت‌انگیزی واقعی و طبیعی است و می‌تواند اهداف زیادی را برای سازنده آنها محقق کند. درواقع اخاذی و آدم‌ربایی فقط یکی از این اهداف است.
پروفسور لوییس گریفین یکی از نویسندگان گزارش تحقیقی سال ۲۰۲۰ برای مرکز تخلفات آینده در کالج لندن که روی موضوع پتانسیل‌های استفاده غیرقانونی از هوش مصنوعی کار کرده، در این خصوص می‌گوید: «موضوع واقعاً شگفت‌انگیز است. در حال حاضر جرایم و خلاف‌هایی که هوش مصنوعی طراحشان است در صدر موارد مورد بررسی قرار دارند. حتی دانشمندانی که سال‌ها درباره خطرات هوش مصنوعی هشدار داده بودند هم پیش‌بینی نمی‌کردند هوش مصنوعی با این سرعت و دقت در زمینه خلافکاری مورد استفاده قرار بگیرد.»
گریفین می‌گوید آنچه در رسانه‌ها مطرح شده، تولید محتوا توسط هوش مصنوعی و استفاده از آن بوده؛ اما آنچه که کم‌تر مورد توجه واقع شده این است که به زودی این تولید محتوا به شکل لحظه‌ای هم خواهد بود؛ یعنی فرضاً ممکن است شاهدی در موضوعی به صورت آنلاین حاضر شده باشد و هوش مصنوعی به صورت لحظه‌ای قادر به تولید حضور او شود. در آن صورت، اعتبار بسیاری از امور که به صورت آنلاین انجام می‌شدند هم از بین خواهد رفت. شاید پیشرفت‌های تکنولوژیک آینده بتواند راهی برای تشخیص سریع این نوع کلاهبرداری‌ها پیدا کند؛ اما در اینکه چنین روندی به زودی دست و پای بشر را در امور زیادی خواهد بست شکی نیست. استفاده بیجا از هوش مصنوعی در برخی امور اورژانسی یا حساس هم جای صحبت زیادی را باقی می‌گذارد.
اما موضوع کلاهبرداری‌های تجاری با استفاده از هوش مصنوعی تقریباً نگران‌کننده‌ترین موضوع برای صاحب‌نظران این حوزه است و چندین سال است که ادامه داشته است. مثلاً در سال ۲۰۱۹ میلادی مدیر اجرایی ارشد یک شرکت فعال در حوزه انرژی در انگلیس ۲۲۰ هزار یورو پول را به حساب یک کلاهبردار منتقل کرد چون پیش از آن پیام صوتی واضح و غیرمشکوکی از رییس خود در این خصوص دریافت کرده بود.
اگر در چنین کلاهبرداری‌هایی از ویدئو هم استفاده شود، احتمال اینکه واقعی‌تر جلوه کنند بیشتر می‌شود. از این نوع تکنولوژی‌های پیشرفته در عملیات جاسوسی از شرکت‌ها می‌توان به راحتی استفاده کرد؛ به طوری که فرضاً هوش مصنوعی می‌تواند کاری کند که کارمند یک شرکت به صورت مجازی در جلسه‌ای روی اپ زوم حضور پیدا کند و از اطلاعات ارائه‌شده در آن آگاه شود؛ در حالی که واقعاً در جلسه حاضر نبوده است.
به گفته پروفسور گریفین، تکنولوژی هوش مصنوعی با سرعتی در حال پیشرفت است که به زودی می‌تواند لهجه‌های محلی و گویش‌ها را هم بدون ایراد ادا کند و این موضوع در اثبات هویت جعلی در فضای مجازی در پیام‌های صوتی و تصویری حتی پیچیدگی‌های بیشتری هم ایجاد خواهد کرد.
استفاده دیگر از هوش مصنوعی را هم می‌توان در سیستم‌های تسلیحاتی خودکار مشاهده کرد که به خصوص با ابزارهایی مثل پهپاد جور هستند و کاملاً می‌توان ماموریت‌های نظامی آنها را برنامه‌ریزی کرد.

جعل عمیق
در سال‌های اخیر افکار عمومی آمریکا بارها با موضوع دیپ‌فِیک (جعل عمیق) مواجه شده‌اند. این نوعی فن‌آوری مبتنی بر هوش مصنوعی است که به خصوص سیاستمداران و سلبریتی‌ها (که صدا و تصویر زیادی ازشان موجود است) را هدف قرار می‌دهد و از داده‌های موجود درباره آنها استفاده مجرمانه می‌کند. مثلاً ویدئویی از مواضع یک سیاستمدار درباره یم موضع حساس منتشر می‌شود اما سیاستمدار موضوع را انکار می‌کند. با این حال، ممکن است آن موضع حساس در زمان خاصی به شدت به موقعیت آن سیاستمدار یا حزبش یا وضعیت انتخاباتی آنها لطمه بزند. سیستم‌های دیپ‌فیک مبتنی بر یادگیری ماشینی و یادگیری عمیق هستند.
اما خطر بزرگ‌تر در استفاده از سیستم دیپ‌فیک این است که جای سوءاستفاده بسیار زیاد در آنها وجود دارد. درواقع شما می‌توانید با استفاده از آنها کسی را مشغول کاری نشان بدهید که هرگز انجام نداده است. این راه سریعی برای محکوم‌کردن افراد در دادگاه افکار عمومی است؛ آن هم بدون آن که فرصتی برای توضیح وجود داشته باشد. خطر دیگر هم این است که از چنین سیستم‌هایی در سوءاستفاده از تصاویر کودکان ممکن است استفاده شود.
در همین میان هوش مصنوعی می‌تواند به کمک دولت‌ها، نیروهای نظامی و اطلاعاتی و سیستم‌های نظارتی آنها هم بیاید. با این حال، به نظر می‌رسد که تا اینجای کار خلافکاران از نیروهای پلیس جلوتر بوده‌اند و به روش‌های خلاقانه زیادی از هوش مصنوعی استفاده کرده‌اند. اینکه حکومت‌ها از لحاظ قانونی و فنی تا چه حد قادر به رسیدن به گرد پای آنها خواهند بود، مسئله‌ای است که فقط در آینده می‌توان درباره‌اش قضاوت کرد.
منبع: اسکای نیوز

ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید