تعمیرگاه ستفیکس

چهره های جعلی به وجود آمده با هوش مصنوعی مورد اعتمادتر از چهره های واقعی!

چهره های جعلی به وجود آمده با هوش مصنوعی مورد اعتمادتر از چهره های واقعی!

تعمیرکار: یک مطالعه جدید نشان میدهد که چهره های جعلی به وجود آمده توسط هوش مصنوعی از چهره های واقعی قابل اعتمادتر به نظر می رسند که موضوع نگران کننده ای است.


به گزارش تعمیرکار به نقل از ایسنا و به نقل از دیلی میل، یک مطالعه جدید و در عین حال نگران کننده نشان میدهد که چهره های جعلی به وجود آمده توسط هوش مصنوعی قابل اعتمادتر از چهره افراد واقعی به نظر می رسند.
در این مطالعه جدید که توسط "سوفی نایتینگل" از دانشگاه "لنکستر" و "هانی فرید" از دانشگاه "کالیفرنیا برکلی" انجام شد، پژوهشگران چندین آزمایش انجام دادند تا ببینند آیا چهره های جعلی به وجود آمده توسط الگوریتم های یادگیری ماشینی می توانند انسان ها را فریب دهند یا خیر. آنها دریافتند چهره هایی که بصورت مصنوعی تولید می شوند، نه فقط بسیار واقع گرایانه هستند، بلکه تقریباً از چهره های واقعی قابل تشخیص نیستند و حتی توسط افراد، قابل اعتمادتر ارزیابی می شوند.
پژوهشگران باتوجه به این نتایج، خواهان تدابیری برای جلوگیری از پخش آنلاین "جعل عمیق" یا "دیپ فیک" هستند.
از فناوری "جعل عمیق" تا حالا برای جعل تصاویر مستهجن از افراد مشهور، کلاهبرداری و تبلیغات استفاده شده که منجر به انتشار اخبار جعلی و ایجاد دردسرهای زیادی شده است.
پژوهشگران می گویند: ارزیابی ما از واقع گرایی عکس چهره های مصنوعی تولید شده با هوش مصنوعی نشان میدهد که موتورهای تولید این تصاویر از مرزها عبور کرده اند و می توانند چهره هایی غیرقابل تشخیص و حتی قابل اعتمادتر از چهره های واقعی ایجاد کنند.
آنها می افزایند: شاید زیان بارترین نتیجه این فناوری این باشد که در دنیای دیجیتال که در آن هر تصویر یا ویدئویی را می توان جعل کرد، صحت هرگونه تصویر و ویدیو را می توان زیر سوال برد.
کارشناسان برای این مطالعه از چهره های جعلی استفاده کردند که با یک "شبکه زایای دشمن گونه" موسوم به "StyleGAN۲" متعلق به شرکت فناوری "انویدیا"(Nvidia) تولید شده است.
شبکه های زایای دشمن گونه یا شبکه های مولد رقابتی(GANs) با قرار دادن دو الگوریتم در مقابل یکدیگر کار می کنند تا تصاویر متقاعدکننده ای از دنیای واقعی ایجاد کنند.
شبکه های زایای دشمن گونه یک کلاس از چارچوب های یادگیری ماشین است که "ایان گودفلو" و همکارانش در سال ۲۰۱۴ آنرا معرفی کردند. در این کلاس، دو شبکه عصبی در یک بازی که سود یک بازیکن به ضرر بازیکن دیگر است و هر گاه بازیکنی یک امتیاز می گیرد در حقیقت امتیازی از بازیکن مقابل کم می شود، روبروی یکدیگر قرار می گیرند. در نتیجه همیشه مجموع امتیازات صفر است.
در این روش شبکه فرا می گیرد چگونه از داده های آموزش، داده های جدیدی به وجود بیاورد که از دید آماری داده های آموزش و به وجود آمده همسان باشند. به عبارت دیگر روش در نهایت مقرر است داده هایی که برای آموزش استفاده می شوند و خروجی شبکه از لحاظ برخی خاصیت ها شباهت داشته باشند، وظیفه تولید خروجی بر عهده ی بخش زایا و وظیفه بررسی کافی بودن این شباهت بر عهده بخش دشمن گونه است. مانند یک بازی، اگر بخش دشمن گونه بتواند حدس بزند ورودی اصلی شبکه با خروجی تولید شده توسط بخش زایا اختلاف دارند یا به عبارتی همسان نیستند، برنده می شود و بخش زایا مجبور است خروجی بهتری تولید نماید تا جایی که بخش زایا بتواند بخش دشمن گونه را بفریبد در نتیجه بازی تمام شود.
برای نمونه، شبکه های مولد رقابتی آموزش یافته می توانند تصاویر جدیدی را به وجود بیاورند که از دید بیننده درست باشد و خیلی از خاصیت های داده های آموزشی را در بر بگیرد. تصور کنید مقرر است از تصاویر با وضوح پایین تصاویر با وضوح بالای معادل آنها را بسازیم که علاوه بر بزرگتر بودن و باکیفیت تر بودن دقیقا معادل تصویر ورودی باشد. در چنین شرایطی شبکه زایای دشمن گونه بسیار مفید و کمک کننده است.
ایده بنیادی شبکه های مولد رقابتی بر پایه آموزش جداکننده است که خود نیز در پروسه آموزش به شیوه پویا درحال بروزرسانی است. بدین سان شبکه مولد بجای این که در پی کاهش فاصله با یک عکس باشد، در کوشش برای گمراه کردن شبکه تفکیک کننده خواهد بود. بدین سبب مدل توانا می شود تا به روش بدون ناظر به وجود آوردن عکس ها را فرا بگیرد.


در آزمایش اول این مطالعه جدید، ۳۱۵ شرکت کننده ۱۲۸ چهره را که از یک مجموعه ۸۰۰ نفری گرفته شده بودند، بعنوان واقعی یا مصنوعی طبقه بندی کردند.
پژوهشگران دریافتند که میزان دقت آنها ۴۸ درصد است که حتی از عملکرد شانسی ۵۰ درصدی نیز کمتر است.
در آزمایش دوم به ۲۱۹ شرکت کننده جدید در مورد نحوه تشخیص و طبقه بندی چهره ها آموزش داده شد. آنها ۱۲۸ چهره را که از همان مجموعه ۸۰۰ چهره در آزمایش اول گرفته شده بود، طبقه بندی کردند، اما برخلاف این که آنها آموزش دیده بودند، میزان دقت فقط به ۵۹ درصد افزوده شد.
بدین سبب پژوهشگران تصمیم گرفتند تا دریابند که آیا قابل اعتماد بودن چهره ها می تواند به افراد در شناسایی تصاویر مصنوعی در آزمایش سوم کمک نماید یا نه.
پژوهشگران می گویند: چهره ها منبعی غنی از اطلاعات هستند و تنها چند میلی ثانیه قرار گرفتن در معرض چهره یک فرد، برای استنباط ضمنی در مورد خاصیت های فردی وی مانند قابل اعتماد بودن کافی است.
در آزمایش سوم از ۲۲۳ شرکت کننده خواسته شد تا به قابلیت اعتماد ۱۲۸ چهره که از همان مجموعه ۸۰۰ تصویری گرفته شده بود، در مقیاس یک به مدلول بسیار غیرقابل اعتماد تا هفت به مدلول بسیار قابل اعتماد امتیاز دهند و در کمال تعجب، میانگین رتبه بندی برای چهره های مصنوعی ۷.۷ درصد قابل اعتمادتر از میانگین رتبه بندی برای چهره های واقعی بود که از نظر آماری به شدت مدلول دار است.
چهره های سیاه پوست نسبت به چهره های آسیای جنوبی قابل اعتمادتر ارزیابی شدند، اما به جز این هیچ تاثیری در میان نژادها وجود نداشت.
ضمن این که زنان بطور قابل توجهی قابل اعتمادتر از مردان رتبه بندی شدند.
پژوهشگران ادعا می کنند که خندان بودن یا نبودن چهره ها که می توانست قابل اعتماد بودن فرد را افزایش دهد، بر این نتایج تأثیری نداشته است. آنها می گویند: در صورتیکه به احتمال زیاد یک چهره خندان بعنوان قابل اعتماد رتبه بندی می شود، اما ۶۵.۵ درصد از چهره های واقعی و ۵۸.۸ درصد از چهره های مصنوعی خندان هستند، بدین سبب حالت چهره به تنهایی نمی تواند توضیح دهد که چرا چهره های مصنوعی قابل اعتمادتر ارزیابی می شوند.
پژوهشگران می گویند، دلیل این که چهره های ترکیب شده قابل اعتمادتر در نظر گرفته می شوند، ممکنست این باشد که آنها تلفیقی از چند چهره ​​هستند.
بدین سبب پژوهشگران برای صیانت از مردم در مقابل «دیپ فیک»، وضع دستورالعمل هایی را برای ایجاد و توزیع تصاویر ترکیب شده پیشنهاد کرده اند. بعنوان مثال، اقدامات حفاظتی می تواند شامل گنجاندن نشانه ها یا واترمارک های قوی در شبکه های ترکیب تصویر و ویدئو باشد که مکانیزمی مطمئن را برای شناسایی قابل اعتماد بودن تصاویر فراهم می آورد.
پژوهشگران می گویند: همانطور که در سایر زمینه های علمی و مهندسی انجام شده است، ما جامعه گرافیک را تشویق می نماییم تا دستورالعمل هایی را برای ایجاد و توزیع فناوری های ترکیبی مصنوعی ایجاد کنند که شامل دستورالعمل های اخلاقی برای پژوهشگران، ناشران و توزیع کنندگان باشد.
این مطالعه در مجله Proceedings of the National Academy of Sciences انتشار یافته است.




منبع:

1400/11/30
11:24:02
5.0 / 5
359
تگهای خبر: تشخیص , شركت , فناوری , مهندس
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۱ بعلاوه ۳
SetFix تعمیرکار