اشاره
امروزه بیشتر از هر زمان می توان در رسانه ها مطالبی را در مورد شناسایی گروه ها و هسته های مختلف توسط نیروهای امنیتی (کشورهای مختلف) مشاهده کرد که قصد انجام یک اقدام تروریستی را داشتند. چنین مواردی در آسیای مرکزی به طور فزاینده ای رایج است.
سازمان های افراطی و تروریستی به طور فزاینده ای از اینترنت و شبکه های اجتماعی برای ترویج ایدئولوژی خود، جذب حامیان جدید و هماهنگی فعالیت ها استفاده می کنند. در این شرایط، فناوریهای هوش مصنوعی (AI) به ابزاری مهم برای شناسایی تهدیدات در مراحل اولیه و جلوگیری از پیامدهای غمانگیز تبدیل میشوند.
نظارت بر محتوای اینترنتی
یکی از کاربردهای کلیدی هوش مصنوعی، تجزیه و تحلیل خودکار متون، تصاویر، مطالب صوتی و تصویری در اینترنت و شبکه های اجتماعی است. الگوریتمهای یادگیری ماشینی برای تشخیص نشانههای محتوای افراطی یا تروریستی، مانند فراخوان برای خشونت، توهین بر اساس ملیت یا مذهب، و نمادهای سازمانهای ممنوعه آموزش داده شدهاند. به لطف قدرت محاسباتی عظیم خود، هوش مصنوعی می تواند حجم عظیمی از اطلاعات را پردازش کند که برای انسان غیرممکن است. پلتفرم های بزرگ رسانه های اجتماعی مانند متا (فیس بوک) و تیک تاک به طور فعال سیستم های هوش مصنوعی را برای شناسایی و حذف خودکار محتوای مضر، غیرقانونی و خطرناک پیاده سازی می کنند. متا از فناوری جدیدی به نام Few-Shot Learning استفاده میکند که به سیستمهای هوش مصنوعی اجازه میدهد تا به سرعت برای شناسایی انواع جدید محتوای مخرب تنها با استفاده از مقدار کمی از دادههای برچسبگذاری شده سازگار شوند. دولت ها همچنین به طور فعال از فناوری های هوش مصنوعی برای نظارت و تجزیه و تحلیل محتوا برای شناسایی تبلیغات و تهدیدات تروریستی آنلاین استفاده می کنند. به عنوان مثال، در سال ۲۰۱۷-۲۰۲۰. اتحادیه اروپا بیش از ۵ میلیون یورو برای توسعه سیستم RED-Alert سرمایه گذاری کرده است که از هوش مصنوعی برای شناسایی محتوای تروریستی آنلاین استفاده می کند.
پیش بینی تهدید
هوش مصنوعی همچنین قادر است تهدیدات بالقوه را بر اساس مقادیر زیادی داده های ناهمگون، از پست های رسانه های اجتماعی گرفته تا تراکنش های مالی، پیش بینی کند. با شناسایی ناهنجاریها و پیوند دادن سیگنالهای متفاوت در یک تصویر، سیستمهای هوش مصنوعی به شناسایی به موقع آمادگیها برای حملات تروریستی یا فعالیتهای افراطی کمک میکنند.
شناخت شخصیت
فناوریهای بینایی رایانهای، شناسایی افراد در فیلمها و عکسها را با شناسایی چهرهها و بررسی آنها در برابر پایگاههای اطلاعاتی افراطگرایان و تروریستهای تحت تعقیب ممکن میسازد. چنین سیستم هایی به ردیابی حرکات و تماس های آنها کمک می کنند.
مقابله با تبلیغات
هوش مصنوعی نقش مهمی در مقابله با تبلیغات افراطی و تروریستی در اینترنت دارد. تکنیکهای پردازش زبان طبیعی (NLP) برای شناسایی خودکار و مسدود کردن محتوای ضد تبلیغاتی استفاده میشود. الگوریتمهای NLP دادههای متنی را تجزیه و تحلیل میکنند، کلمات کلیدی، عبارات و زمینههایی را که بیانگر سخنان نفرتانگیز یا فراخوانهای خشونت هستند، شناسایی میکنند. علاوه بر این، هوش مصنوعی می تواند برای ایجاد و انتشار پیام های «ضد افراطی» با هدف خنثی کردن لفاظی های افراطی استفاده شود. به عنوان مثال، الگوریتمهای ویژه میتوانند محتوایی تولید کنند که با ادعاهای افراطی مقابله کند یا دیدگاههای جایگزینی را ارائه دهد و در نتیجه به کاهش رادیکالسازی در میان کاربران کمک کند.
حفاظت سایبری
هوش مصنوعی همچنین در امنیت سایبری برای محافظت در برابر حملات هکری افراطگرایان و تروریستها نقش دارد. سیستم های هوش مصنوعی قادر به تجزیه و تحلیل ترافیک شبکه در زمان واقعی، شناسایی فعالیت های مشکوک و حملات سایبری احتمالی هستند. الگوریتمهای یادگیری ماشینی بر روی حجم عظیمی از دادهها آموزش داده میشوند که به آنها اجازه میدهد تا به طور موثر ناهنجاریها و تهدیدها را شناسایی کنند. یکی از مهمترین وظایف هوش مصنوعی در حوزه دفاع سایبری جلوگیری از حملات به زیرساخت های حیاتی مانند شبکههای انرژی، سیستم های حمل و نقل و سازمان های دولتی است. با استفاده از یادگیری ماشین و تجزیه و تحلیل داده های بزرگ، سیستم های هوش مصنوعی می توانند تلاش های هک را پیش بینی و خنثی کنند و در نتیجه از امنیت ملی محافظت کنند.
علاوه بر این، هوش مصنوعی برای شناسایی و مسدود کردن خودکار نرم افزارهای مخرب، از جمله ویروس ها، تروجان ها و دیگر انواع تهدیدات سایبری استفاده می شود. برنامه های آنتی ویروس مدرن مجهز به هوش مصنوعی قادر به تطبیق سریع با انواع بدافزارهای جدید هستند که به میزان قابل توجهی سطح حفاظت را افزایش می دهد. یکی از جنبه های مهم دفاع سایبری نیز آموزش و آموزش متخصصان امنیت سایبری است. هوش مصنوعی میتواند برای شبیهسازی حملات سایبری استفاده شود و به کارشناسان اجازه میدهد تا استراتژیهای دفاعی را در شرایط واقعی تمرین کنند. چنین آموزش هایی به بهبود مهارت های واکنش به حادثه و بهبود انعطاف پذیری کلی سیستمهای سایبری در برابر حملات کمک می کند.
چالش ها و مسائل اخلاقی
استفاده از هوش مصنوعی نگرانی های جدی در مورد نقض احتمالی حقوق بشر و آزادی های مدنی ایجاد می کند. به عنوان مثال، الگوریتم های تشخیص چهره مغرضانه می تواند منجر به دستگیری های نادرست و تبعیض علیه اقلیت های قومی شود. گزارش سازمان ملل خاطرنشان میکند؛ الگوریتمهای یادگیری ماشینی میتوانند سوگیری و تبعیض را هنگام استفاده از دادههای بایاس افزایش دهند. این میتواند ارزش های دموکراتیک و آزادیهای مدنی را تضعیف کند.
استفاده تروریست ها از هوش مصنوعی
گروه های تروریستی نیز شروع به مهار قدرت هوش مصنوعی کرده اند. به عنوان مثال، بر اساس گزارش Tech Against Terrorism، از سال ۲۰۲۳، بیش از ۵۰۰۰ محتوای ایجاد شده توسط تروریست ها با استفاده از هوش مصنوعی ثبت شده است.
مسابقه تسلیحاتی
بهبود مداوم فناوریهای دیپفیک (DEEP FAKEبرنامه ای بر پایه هوش مصنوعی برای ساخت فیلم وعکس جعلی) نیاز به توسعه سیستمهای هوش مصنوعی پیشرفتهتر برای شناسایی آنها را ایجاد میکند. سازندگان دیپ فیک از تکنیکهای «تشخیص متقابل» برای دور زدن سیستمهای هوش مصنوعی برای شناسایی آنها استفاده میکنند. بنابراین، الگوریتم های تشخیص باید به طور مداوم بهبود یابد. برای بهبود، سیستمهای تشخیص دیپفیک باید به فشردهسازی ویدئو، پردازش رسانههای اجتماعی و دیگر انواع پسپردازش محتوا توجه ویژه داشته باشند. هوش مصنوعی در حال تبدیل شدن به ابزاری ضروری در مبارزه با افراط گرایی و تروریسم، ارائه نظارت بر محتوا، پیش بینی تهدیدات و دفاع سایبری است. با این حال، حفظ تعادل بین تضمین امنیت و حمایت از حقوق و آزادی های دموکراتیک شهروندان مهم است. این امر مستلزم آزمایش دقیق الگوریتمها برای سوگیری و توسعه استانداردهای قانونی و اخلاقی برای استفاده از هوش مصنوعی در این زمینه است. دولتها و شرکتهای فناوری باید برای ایجاد سیستمهای شفاف و پاسخگو که به طور مؤثر تهدیدات را بدون نقض حقوق و آزادیهای اساسی بشر مقابله میکنند، همکاری کنند. تنها از این طریق می توان به نتایج پایدار در مبارزه با افراط گرایی و تروریسم با استفاده از دستاوردهای پیشرفته هوش مصنوعی دست یافت.
تهیه توسط کارشناس فرهنگی قزاقستان
منبع :https://www.inform.kz/ru/den-respubliki_t۱۲۰۵۰/۲
نظر شما