Site Loader
دیپ فیک

پیشرفت های اخیر در هوش مصنوعی (AI) تشخیص حقیقت از دروغ را به طور فزاینده ای دشوار کرده است. استانداردها نقش مهمی در کمک به شناسایی دیپ فیک و افزایش شفافیت در سطح جهانی دارند.

هر کسی که اخبار را به طور منظم دنبال می کند ممکن است فکر کند که دروغ های عمیق – کلیپ های کامپیوتری که نه تنها واقعیت را تحریف می کند بلکه می تواند شهرت قربانیان خود را نیز از بین ببرد – فقط بر افراد مشهور و سیاستمداران کسب و کار نمایشی تأثیر می گذارد. الساندرا سالا، مهندس و دانشمند هوش مصنوعی، در تلاش است تا به این نکته اشاره کند که بازیگران مخرب محتوای جعلی را برای آزار، ارعاب و انتشار اطلاعات نادرست در مورد مردم عادی تولید می کنند. او می‌گوید: «وقتی رسانه‌های جعلی به شخصی حمله می‌کنند که امکانات اقتصادی یا اجتماعی تیلور سوئیفت یا دونالد ترامپ را ندارد، این یک مشکل واقعی است و معمولاً قربانیان آن‌ها زنان هستند».

سالا که برای یکی از شناخته شده ترین ارائه دهندگان محتوای رسانه های بورسی در جهان کار می کند، توضیح می دهد که اولین بار زمانی که در پانل کنفرانس سازمان ملل حضور داشت از “مسئله جنسیتی” آگاه شد: “یک روزنامه نگار از خاورمیانه در مورد او صحبت می کرد. تجربه حمله از یک ویدیوی جعلی که او را با رئیسش به تصویر می‌کشد تا شهرت و شایستگی او را بی‌اعتبار کند. حوزه عاطفی او را نابود کرد. خانواده او در شوک بودند.»

در حالی که اثرات آن برای افراد می تواند مخرب باشد، دیپ فیک ها تهدید گسترده تری برای جامعه هستند. طبق گزارش MIT Technology Review، دیپ فیک ها “یک سلاح عالی برای تامین کنندگان اخبار جعلی هستند که می خواهند بر همه چیز از قیمت سهام گرفته تا انتخابات تاثیر بگذارند.” گزارش خطرات جهانی مجمع جهانی اقتصاد، رسانه های جعلی را به عنوان یکی از مخرب ترین چالش های ما معرفی می کند. به گفته WEF، گسترش اطلاعات نادرست اعتماد را نه تنها به پلتفرم های دیجیتال، بلکه به موسسات نیز از بین برده است. برای WITNESS، یک سازمان غیرانتفاعی که به مردم کمک می‌کند تا از ویدئو و فناوری برای محافظت و دفاع از حقوق بشر استفاده کنند، مأموریت آنها در آموزش اصول تولید ویدئو، تکنیک‌های فیلمبرداری ایمن و اخلاقی، و استراتژی‌های حمایتی را تهدید می‌کند.

سام گرگوری، مدیر اجرایی Witness، می‌گوید که بازیگران بدخواه اغلب از عدم قطعیت‌های مردم استفاده می‌کنند تا رسانه‌های واقعی را جعلی تلقی کنند. ما موارد بسیار زیادی را مشاهده می کنیم که در آن شخصی اساساً ادعا می کند که از هوش مصنوعی برای دستکاری یک کلیپ صوتی یا یک ویدیو استفاده شده است. و اغلب انجام تجزیه و تحلیل پزشکی قانونی برای اثبات واقعی بودن آن بسیار دشوار است.

نقش استانداردها در تشخیص دیپ فیک

WITNESS یکی از چندین سازمانی است که با سالا برای اعمال استانداردها – بهترین شیوه های مورد توافق بین المللی – برای شناسایی دیپ فیک هایی که از هوش مصنوعی مولد استفاده می کنند، متحد شده اند. تحت رهبری سه سازمان استاندارد بین المللی، IEC، ISO و ITU، و به ریاست سالا، این همکاری از بینش و تخصص طیف گسترده ای از سهامداران بهره می برد. فناوری بزرگ توسط شرکت هایی مانند Adobe، Microsoft و Shutterstock ارائه می شود. سایر سازمان‌های استانداردی که در آن شرکت می‌کنند عبارتند از: Content Authenticity Initiative (CAI)، Coalition for Content Provenance and Authenticity (C2PA) و Internet Engineering Tast Force (IETF). همچنین مؤسسه تحقیقاتی آلمانی، Frauenhofer، مؤسسه فناوری فدرال سوئیس در لوزان (EPFL) و CAICT، یک اندیشکده متمرکز بر فناوری مستقر در چین، و همچنین متخصصان احراز هویت، DataTrails و Deep Media نیز درگیر هستند.

سالا می‌گوید: «ما باید استانداردهایی را اعمال کنیم که می‌توانند محافظ‌هایی برای محافظت از توانایی ما در اعتماد به فضای دیجیتال، نگاه کردن به اخبار و درک اینکه آیا می‌توانیم به آن اعتماد کنیم یا نه، ایجاد کنیم. «امروز، به طور پیش فرض، ما تمایل داریم که دیگر به چیزی اعتماد نکنیم. مردم به مقامات اعتماد ندارند و دیگر به خبرنگارانی که زندگی خود را وقف رساندن حقیقت به ما کرده‌اند، اعتماد ندارند.»

سالا می‌گوید استانداردهای بین‌المللی می‌توانند به برقراری مجدد نظم و توانایی در زمینه‌سازی آنچه می‌بینیم و می‌شنویم کمک کنند. من فکر می کنم در دنیایی که دفاع طبیعی انسان ما دیگر کافی نیست، بسیار مهم است.

ما در دوران تشدید بی ثباتی ژئوپلیتیکی زندگی می کنیم. درگیری‌ها در مناطق مختلف جهان در حال فوران هستند، بحران‌های اقتصادی عمیق‌تر می‌شوند و به نظر می‌رسد که قطب‌بندی سیاسی هم در داخل و هم بین کشورها در حال افزایش است. اثرات تغییرات آب و هوایی این مسائل را تشدید می کند و یک چشم انداز جهانی بی ثبات و غیرقابل پیش بینی ایجاد می کند. علاوه بر این که محیط ژئوپلیتیکی را پیچیده تر می کند، کشورها با سرعت سریع پیشرفت های فناوری دست و پنجه نرم می کنند که هم فرصت ها و هم خطرات قابل توجهی را به همراه دارد.

سالا می گوید: «ما در جهانی زندگی می کنیم که بسیار ناپایدار است و منافع مختلفی وجود دارد که باید در نظر گرفته شوند. ما همچنین امروز این فناوری را در دست تعداد کمی از شرکت‌ها داریم. آنها تقریباً می توانند هر کاری را که می خواهند انجام دهند، بدون داشتن استاندارد یا مقررات. این یک ناهار رایگان است.»

همکاری بین کارشناسان فناوری و سازمان های استاندارد

همکاری استانداردها در زمینه هوش مصنوعی و اصالت چند رسانه ای در نشست جهانی AI for Good در ژنو در اوایل سال جاری راه اندازی شد. کارشناسان بر تأثیرات اجتماعی بالقوه هوش مصنوعی مولد و نیاز فوری برای رسیدگی به سوء استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست تأکید کردند.

این بحث ها بر اهمیت شفافیت در هوش مصنوعی، به ویژه در مورد منشأ داده های مورد استفاده برای آموزش مدل های هوش مصنوعی تاکید کرد. ایجاد اعتبار و قابلیت اطمینان این داده ها برای درک سوگیری های احتمالی و اطمینان از صحت محتوای تولید شده توسط هوش مصنوعی بسیار مهم است. توانایی تأیید صحت و مالکیت محتوای چندرسانه‌ای هوش مصنوعی برای حفاظت از حقوق دیجیتال ضروری است.

سازمان‌های شرکت‌کننده در مورد همکاری چند ذی‌نفعی برای شناسایی شکاف‌های استانداردسازی فعلی برای حوزه‌هایی مانند واترمارک هوش مصنوعی، اصالت چند رسانه‌ای و فناوری‌های تشخیص عمیق جعلی توافق کردند. آنها در حال ترسیم چشم انداز استانداردهای موجود برای شناسایی شکاف ها و پیشنهاد راه حل هایی برای رفع این کمبودها هستند. انتظار می‌رود این ابتکار نقش مهمی در حمایت از سیاست‌های دولت، تضمین شفافیت و حفاظت از حقوق کاربران و سازندگان محتوا در زمینه به‌سرعت در حال توسعه هوش مصنوعی و فناوری‌های مولد ایفا کند.

جایی که IEC، ISO و ITU در حال حاضر در حال نوآوری هستند

فناوران و دانشمندان مسئول فرمت تصویر JPEG در حال توسعه یک استاندارد سازگار با سابقه هستند که امیدوارند ایجاد رسانه ای که از اطلاعات منبع محافظت می کند و از حقوق مالکیت معنوی محافظت می کند آسان تر کند. آنها امیدوارند که به خبرنگاران و بازرسان بیمه کمک کند تا صحت عکس ها و ویدئوها را تأیید کنند. JPEG بخشی از کمیته ISO/IEC JTC 1/SC 29 است که کدگذاری اطلاعات صوتی، تصویری، چند رسانه ای و ابررسانه ای را پوشش می دهد و همچنین به ITU گزارش می دهد.

کسانی که احتمالاً از استاندارد بین‌المللی جدید سود می‌برند، هنرمندانی هستند که آثار دیجیتالی اصلی خود را دیده‌اند که به‌عنوان NFT (توکن‌های غیرقابل تعویض) توسط کلاهبرداران ضرب شده‌اند. NFTها دارایی‌های دیجیتال منحصربه‌فردی هستند که می‌توان آنها را مانند دارایی فیزیکی خرید و فروخت و برخی از آن‌ها ده‌ها میلیون دلار در حراج به فروش می‌رسند.

این استاندارد همچنین باید شناسایی دیپ‌فیک‌ها را آسان‌تر کند، حتی اگر انتظار می‌رود که با پیشرفت فناوری به چالش بیشتری تبدیل شود. کارشناسان JPEG در تلاش هستند تا به این نکته اشاره کنند که همه رسانه های جعلی لزوما بد یا مخرب نیستند. جلوه‌های ویژه در فیلم‌ها، عکاسانی که نسخه‌های متفاوتی از یک تصویر را برای اهداف مختلف ایجاد می‌کنند، یا روزنامه‌نگاران رادیویی که مکث‌ها را از مصاحبه‌ها حذف می‌کنند، همگی نمونه‌هایی از رسانه‌هایی هستند که به دلایل خوبی دستکاری شده‌اند.

منبع:etech.iec

Post Author: ghaemi mohammad

این سایت جهت ارائه اطلاعات بروز و تخصصی در حوزه سیستم های مدیریت کیفیت و اشتراک گزاردن تجربیات اینجانب در حوزه ارزیابی انطباق و ترویج و ارتقای این علم تشکیل شده است

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *