پیشرفت های اخیر در هوش مصنوعی (AI) تشخیص حقیقت از دروغ را به طور فزاینده ای دشوار کرده است. استانداردها نقش مهمی در کمک به شناسایی دیپ فیک و افزایش شفافیت در سطح جهانی دارند.
هر کسی که اخبار را به طور منظم دنبال می کند ممکن است فکر کند که دروغ های عمیق – کلیپ های کامپیوتری که نه تنها واقعیت را تحریف می کند بلکه می تواند شهرت قربانیان خود را نیز از بین ببرد – فقط بر افراد مشهور و سیاستمداران کسب و کار نمایشی تأثیر می گذارد. الساندرا سالا، مهندس و دانشمند هوش مصنوعی، در تلاش است تا به این نکته اشاره کند که بازیگران مخرب محتوای جعلی را برای آزار، ارعاب و انتشار اطلاعات نادرست در مورد مردم عادی تولید می کنند. او میگوید: «وقتی رسانههای جعلی به شخصی حمله میکنند که امکانات اقتصادی یا اجتماعی تیلور سوئیفت یا دونالد ترامپ را ندارد، این یک مشکل واقعی است و معمولاً قربانیان آنها زنان هستند».
سالا که برای یکی از شناخته شده ترین ارائه دهندگان محتوای رسانه های بورسی در جهان کار می کند، توضیح می دهد که اولین بار زمانی که در پانل کنفرانس سازمان ملل حضور داشت از “مسئله جنسیتی” آگاه شد: “یک روزنامه نگار از خاورمیانه در مورد او صحبت می کرد. تجربه حمله از یک ویدیوی جعلی که او را با رئیسش به تصویر میکشد تا شهرت و شایستگی او را بیاعتبار کند. حوزه عاطفی او را نابود کرد. خانواده او در شوک بودند.»
در حالی که اثرات آن برای افراد می تواند مخرب باشد، دیپ فیک ها تهدید گسترده تری برای جامعه هستند. طبق گزارش MIT Technology Review، دیپ فیک ها “یک سلاح عالی برای تامین کنندگان اخبار جعلی هستند که می خواهند بر همه چیز از قیمت سهام گرفته تا انتخابات تاثیر بگذارند.” گزارش خطرات جهانی مجمع جهانی اقتصاد، رسانه های جعلی را به عنوان یکی از مخرب ترین چالش های ما معرفی می کند. به گفته WEF، گسترش اطلاعات نادرست اعتماد را نه تنها به پلتفرم های دیجیتال، بلکه به موسسات نیز از بین برده است. برای WITNESS، یک سازمان غیرانتفاعی که به مردم کمک میکند تا از ویدئو و فناوری برای محافظت و دفاع از حقوق بشر استفاده کنند، مأموریت آنها در آموزش اصول تولید ویدئو، تکنیکهای فیلمبرداری ایمن و اخلاقی، و استراتژیهای حمایتی را تهدید میکند.
سام گرگوری، مدیر اجرایی Witness، میگوید که بازیگران بدخواه اغلب از عدم قطعیتهای مردم استفاده میکنند تا رسانههای واقعی را جعلی تلقی کنند. ما موارد بسیار زیادی را مشاهده می کنیم که در آن شخصی اساساً ادعا می کند که از هوش مصنوعی برای دستکاری یک کلیپ صوتی یا یک ویدیو استفاده شده است. و اغلب انجام تجزیه و تحلیل پزشکی قانونی برای اثبات واقعی بودن آن بسیار دشوار است.
نقش استانداردها در تشخیص دیپ فیک
WITNESS یکی از چندین سازمانی است که با سالا برای اعمال استانداردها – بهترین شیوه های مورد توافق بین المللی – برای شناسایی دیپ فیک هایی که از هوش مصنوعی مولد استفاده می کنند، متحد شده اند. تحت رهبری سه سازمان استاندارد بین المللی، IEC، ISO و ITU، و به ریاست سالا، این همکاری از بینش و تخصص طیف گسترده ای از سهامداران بهره می برد. فناوری بزرگ توسط شرکت هایی مانند Adobe، Microsoft و Shutterstock ارائه می شود. سایر سازمانهای استانداردی که در آن شرکت میکنند عبارتند از: Content Authenticity Initiative (CAI)، Coalition for Content Provenance and Authenticity (C2PA) و Internet Engineering Tast Force (IETF). همچنین مؤسسه تحقیقاتی آلمانی، Frauenhofer، مؤسسه فناوری فدرال سوئیس در لوزان (EPFL) و CAICT، یک اندیشکده متمرکز بر فناوری مستقر در چین، و همچنین متخصصان احراز هویت، DataTrails و Deep Media نیز درگیر هستند.
سالا میگوید: «ما باید استانداردهایی را اعمال کنیم که میتوانند محافظهایی برای محافظت از توانایی ما در اعتماد به فضای دیجیتال، نگاه کردن به اخبار و درک اینکه آیا میتوانیم به آن اعتماد کنیم یا نه، ایجاد کنیم. «امروز، به طور پیش فرض، ما تمایل داریم که دیگر به چیزی اعتماد نکنیم. مردم به مقامات اعتماد ندارند و دیگر به خبرنگارانی که زندگی خود را وقف رساندن حقیقت به ما کردهاند، اعتماد ندارند.»
سالا میگوید استانداردهای بینالمللی میتوانند به برقراری مجدد نظم و توانایی در زمینهسازی آنچه میبینیم و میشنویم کمک کنند. من فکر می کنم در دنیایی که دفاع طبیعی انسان ما دیگر کافی نیست، بسیار مهم است.
ما در دوران تشدید بی ثباتی ژئوپلیتیکی زندگی می کنیم. درگیریها در مناطق مختلف جهان در حال فوران هستند، بحرانهای اقتصادی عمیقتر میشوند و به نظر میرسد که قطببندی سیاسی هم در داخل و هم بین کشورها در حال افزایش است. اثرات تغییرات آب و هوایی این مسائل را تشدید می کند و یک چشم انداز جهانی بی ثبات و غیرقابل پیش بینی ایجاد می کند. علاوه بر این که محیط ژئوپلیتیکی را پیچیده تر می کند، کشورها با سرعت سریع پیشرفت های فناوری دست و پنجه نرم می کنند که هم فرصت ها و هم خطرات قابل توجهی را به همراه دارد.
سالا می گوید: «ما در جهانی زندگی می کنیم که بسیار ناپایدار است و منافع مختلفی وجود دارد که باید در نظر گرفته شوند. ما همچنین امروز این فناوری را در دست تعداد کمی از شرکتها داریم. آنها تقریباً می توانند هر کاری را که می خواهند انجام دهند، بدون داشتن استاندارد یا مقررات. این یک ناهار رایگان است.»
همکاری بین کارشناسان فناوری و سازمان های استاندارد
همکاری استانداردها در زمینه هوش مصنوعی و اصالت چند رسانه ای در نشست جهانی AI for Good در ژنو در اوایل سال جاری راه اندازی شد. کارشناسان بر تأثیرات اجتماعی بالقوه هوش مصنوعی مولد و نیاز فوری برای رسیدگی به سوء استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست تأکید کردند.
این بحث ها بر اهمیت شفافیت در هوش مصنوعی، به ویژه در مورد منشأ داده های مورد استفاده برای آموزش مدل های هوش مصنوعی تاکید کرد. ایجاد اعتبار و قابلیت اطمینان این داده ها برای درک سوگیری های احتمالی و اطمینان از صحت محتوای تولید شده توسط هوش مصنوعی بسیار مهم است. توانایی تأیید صحت و مالکیت محتوای چندرسانهای هوش مصنوعی برای حفاظت از حقوق دیجیتال ضروری است.
سازمانهای شرکتکننده در مورد همکاری چند ذینفعی برای شناسایی شکافهای استانداردسازی فعلی برای حوزههایی مانند واترمارک هوش مصنوعی، اصالت چند رسانهای و فناوریهای تشخیص عمیق جعلی توافق کردند. آنها در حال ترسیم چشم انداز استانداردهای موجود برای شناسایی شکاف ها و پیشنهاد راه حل هایی برای رفع این کمبودها هستند. انتظار میرود این ابتکار نقش مهمی در حمایت از سیاستهای دولت، تضمین شفافیت و حفاظت از حقوق کاربران و سازندگان محتوا در زمینه بهسرعت در حال توسعه هوش مصنوعی و فناوریهای مولد ایفا کند.
جایی که IEC، ISO و ITU در حال حاضر در حال نوآوری هستند
فناوران و دانشمندان مسئول فرمت تصویر JPEG در حال توسعه یک استاندارد سازگار با سابقه هستند که امیدوارند ایجاد رسانه ای که از اطلاعات منبع محافظت می کند و از حقوق مالکیت معنوی محافظت می کند آسان تر کند. آنها امیدوارند که به خبرنگاران و بازرسان بیمه کمک کند تا صحت عکس ها و ویدئوها را تأیید کنند. JPEG بخشی از کمیته ISO/IEC JTC 1/SC 29 است که کدگذاری اطلاعات صوتی، تصویری، چند رسانه ای و ابررسانه ای را پوشش می دهد و همچنین به ITU گزارش می دهد.
کسانی که احتمالاً از استاندارد بینالمللی جدید سود میبرند، هنرمندانی هستند که آثار دیجیتالی اصلی خود را دیدهاند که بهعنوان NFT (توکنهای غیرقابل تعویض) توسط کلاهبرداران ضرب شدهاند. NFTها داراییهای دیجیتال منحصربهفردی هستند که میتوان آنها را مانند دارایی فیزیکی خرید و فروخت و برخی از آنها دهها میلیون دلار در حراج به فروش میرسند.
این استاندارد همچنین باید شناسایی دیپفیکها را آسانتر کند، حتی اگر انتظار میرود که با پیشرفت فناوری به چالش بیشتری تبدیل شود. کارشناسان JPEG در تلاش هستند تا به این نکته اشاره کنند که همه رسانه های جعلی لزوما بد یا مخرب نیستند. جلوههای ویژه در فیلمها، عکاسانی که نسخههای متفاوتی از یک تصویر را برای اهداف مختلف ایجاد میکنند، یا روزنامهنگاران رادیویی که مکثها را از مصاحبهها حذف میکنند، همگی نمونههایی از رسانههایی هستند که به دلایل خوبی دستکاری شدهاند.
منبع:etech.iec