Web Analytics Made Easy - Statcounter

فناوری دیپ‌فیک و تولید تصاویر جعلی توسط هوش مصنوعی تشخیص حقیقت و دروغ را هر روز دشوارتر از دیروز می‌کند. به تازگی فیلمی جعلی با تصاویر تولید شده توسط هوش مصنوعی منتشر شده که نشان می‌دهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد.

به گزارش خبرآنلاین به نقل از فوربس، دیپ‌فیک (Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیو‌های دروغ، اما واقع گرایانه ساخته می‌شوند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

امروزه ویدیو‌های دیپ‌فیک از بسیاری افراد مشهور ساخته شده و در فضای مجازی منتشر می‌شوند. با پیشروی بدون محدودیت این فناوری و عدم تشخیص آن‌ها از ویدئو‌های واقعی توسط کاربران، به زودی تشخیص مرز بین حقیقت و دروغ عملا غیرممکن خواهد شد.

دیپ‌فیک‌ها با فریب دادن مردم در مورد افراد مشهور و شخصیت‌های سیاسی، کار‌ها و سخنانی را به آن‌ها نسبت می‌دهند که واقعی نیستند. اما اشتباهاتی ساده مانند نبودن انگشت‌های دست یا کیفیت پایین برخی ویدیوها، نشانه واضحی از این است که برخی تصاویر و فیلم‌ها اصلاح شده‌اند.

دیپ‌فیک‌ها شکلی از هوش‌مصنوعی با نام «یادگیری عمیق» هستند و زمانی که در برخی داده‌های خود مشکلی پیدا می‌کنند، آن را حل کرده و برای ساخت فیلم‌ها و عکس‌های جعلی، چهره‌ها را عوض می‌کنند.

برخی از دیپ‌فیک‌ها به قصد طنز و کمدی ساخته می‌شوند، مانند مجموعه‌ای از دیپ‌فیک‌های نیکلاس کیج در فیلم‌هایی مانند «مهاجمان صندوق گمشده» و «مرد پولادین» که او در آن‌ها بازی نکرده است.

بسیاری افراد از این قابلیت هوش مصنوعی برای انتقام جویی و عمدتا با استفاده از چهره افراد مشهور و ساخت فیلم‌های مستهجن استفاده کرده‌اند. طبق گزارش دیپ‌تریس، ۹۶ درصد از تمام ویدیو‌های دیپ‌فیک که در سال ۲۰۱۹ به صورت آفلاین یافت شدند، پورنوگرافی بودند. مثلا در سال ۲۰۱۷ از چهره اشخاص معروفی مانند تیلور سوئیفت و اسکارلت جوهانسون برای اینکار استفاده شده بود.

شخصیت‌های سیاسی نیز به طور گسترده قربانی این دیپ‌فیک‌ها می‌شوند. به عنوان مثال ویدئویی جعلی از باراک اوباما در سال ۲۰۱۸ منتشر شد که در آن اوباما، دونالد ترامپ را «یک فرد احمق به تمام معنا» خطاب می‌کند.

شرکت‌های رسانه‌های اجتماعی معروفی نظیر، متا، توییتر و تیک‌تاک انتشار دیپ‌فیک و فیلم‌های فریبنده را در پلتفرم‌های خود ممنوع کرده‌اند، اگرچه تشخیص سریع آن‌ها قبل از اینکه به سرعت منتشر شوند کار سختی است.

پس از اینکه جو بایدن در صبح روز سه‌شنبه برای کمپین انتخابات مجدد اعلام آمادگی کرد، کمیته ملی جمهوری‌خواهان ویدئویی دروغین با تصاویر تولید شده توسط هوش مصنوعی منتشر کردند که نشان می‌دهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد.

این ویدئو، تصاویری از تخریب، و فروریختن ساختمان‌های وال‌استریت، جنگ و انفجار در تایوان، و آمادگی پلیس با تجهیزات تاکتیکی برای دفاع از سانفرانسیسکو در برابر جرم و جنایت به نمایش می‌گذارد. سام کورنال، مدیر اجرایی کمیته ملی دموکرات‌ها در توییتی گفت که RNC از هوش مصنوعی به شکل ناامیدکننده‌ای استفاده کرده است و «چاره‌ای جز درخواست کمک از هوش مصنوعی نداشت».

پس از اینکه الیوت هیگینز، بنیانگذار گروه تحقیقاتی Bellingcat، تصاویر دیپ‌فیکی را از ترامپ که در حال فرار از دست مقامات است، در روز دوشنبه در توییتر به اشتراک گذاشت، این تصاویر غوغایی در رسانه‌های اجتماعی به پا کرد. اگرچه او در ابتدای مطلب اشاره کرده بود که این تصاویر با استفاده از ابزار هوش مصنوعی Midjourney ایجاد شده‌اند.

هیگینز به آسوشیتدپرس گفت که: «دونالد ترامپ در حین دستگیری بر روی زمین افتاد.» با این حال، در این تصاویر «افسران» با کلاه و یونیفورم پلیس با حروف درهم و برهم، و ترامپ با سه پا دیده می‌شود. هیگینز به آسوشیتدپرس گفت: «من تصور می‌کردم مردم متوجه می‌شوند که دونالد ترامپ دو پا دارد، نه سه پا.» ترامپ ممکن است توسط هیئت منصفه منهتن به جعل سوابق تجاری مرتبط با پرداخت حق‌السکوت به استورمی دانیلز، در طول مبارزات انتخاباتی‌اش در سال ۲۰۱۶ متهم شود.

ترامپ روز پنجشنبه تصویری از خود را در پلتفرم شبکه اجتماعی Truth Social منتشر کرد که بر روی زمین زانو زده است. او در این عکس در وسط اتاقی بر روی زمین زانو زده و نورافکن مستقیماً روی او تابیده شده و دست‌هایش را به هم گره کرده و سرش را خم کرده است.

یکی از نقاط ضعف تصاویر تولید شده توسط هوش مصنوعی، تصاویر مربوط به دست‌ها است. این عکس نیز شامل همین قاعده است. در این عکس به نظر می‌رسد که او انگشت حلقه دست راستش را از دست داده و انگشتان شستش منحرف شده‌اند. همچنین، با وجودی که نورافکن بر روی او تابیده شده است، اما هیچ‌کس در اتاق به رئیس‌جمهور سابق نگاه نمی‌کند.

در ویدئویی که او در ماه مه۲۰۲۰ در توییتر به اشتراک گذاشت، ترامپ به جای بیل پولمن در حال خواندن مونولوگ معروف «روز استقلال»، در فیلمی است که بیل نقش رئیس جمهور خیالی ایالات متحده را در آن بازی کرده است. این در حالی است که صدای اصلی فیلم پخش می‌شود، و صورت ترامپ روی بدن پولمن قرار دارد.

در میان جمعیت، چهره شخصیت‌های معروفی مانند ایوانکا ترامپ، تد کروز و شان هانیتی بر روی بدن سربازان فیلم قرار دارد که در حال آماده شدن برای نبرد نهایی با بیگانگان هستند. این باعث شد که بازیگران واکنش نشان دهند و پولمن به هالیوود ریپورتر گفت: "صدای او متعلق به کسی جز [او]نیست". این دیپ‌فیک به اندازه بقیه واقعی نیست، زیرا به وضوح مشخص است که چهره ترامپ بر روی بدن پولمن قرار گرفته است.

چگونه یک دیپ‌فیک را تشخیص دهیم

باقیمانده‌های اضافی: این شامل موارد عجیب و غریب، یا وجود چیز‌هایی نامناسب در عکس یا ویدیو هستند. اشیایی نظیر کفش‌ها یا گوشواره‌های نامتناسب، بدشکل بودن فک، وجود انگشت یا پای اضافه (همانند تصویر جعلی ترامپ).

حرکات چشم: اغلب، در ویدیو‌های دیپ‌فیک جعلی، افراد به شکل عجیبی پلک می‌زنند یا حرکات چشم‌شان طبیعی نیست. مطالعه‌ای که در arXiv دانشگاه کرنل منتشر شده است، از این موضوع برای تشخیص ویدئو‌های جعلی، استفاده کرده است.

کیفیت صدا/فیلم: همانند ویدئو‌های ترامپ و اپستین، بسیاری از ویدئو‌های دیپ‌فیک، عدم تطابق صوتی و تصویری را نشان می‌دهند. به عنوان مثال، در ویدئویی از ولادیمیر پوتین، رئیس جمهور روسیه، که رویترز آن را ترجمه کرده است، ادعا می‌شود که آن‌ها با اوکراین به صلح رسیده‌اند، اما حرکات دهان او با صدا مطابقت ندارد.

منابع: از آنجایی که دیپ‌فیک‌ها روز به روز بهتر و متقاعدکننده‌تر می‌شوند، یکی از بهترین راه‌ها برای تشخیص جعلی بودن آنها، بررسی منابع آن‌ها است. اگرچه با وجود رسانه‌های اجتماعی این کار کمی سخت‌تر شده؛ زیرا هر کسی می‌تواند ویدیو‌ها و تصاویر را به اشتراک بگذارد. مثلا منبع اصلی ویدئوی منتشر شده از جو بایدن، باید از طرف کاخ سفید، یا یک آژانس رسمی دولتی یا یک پلتفرم خبری معتبر باشد.

تقویت مهارت‌های تشخیص: چندین وب‌سایت به افراد کمک می‌کنند تا مهارت‌هایشان را برای تشخیص دیپ‌فیک‌ها بالا ببرند. MIT’s Detect Fakes یک آزمون کوتاه است که به کاربران اجازه می‌دهد تا دو ویدیو را با هم مقایسه کنند و تصمیم بگیرند کدام یک واقعی است. مایکروسافت Spot the Deepfake یک مسابقه ۱۰ سوالی است که از کاربران می‌خواهد به نشانه‌هایی مانند حرکت چشم‌ها و واکنش‌های احساسی توجه کنند و ویدئو‌های دیپ‌فیک را تشخیص دهند.

منبع: فرارو

کلیدواژه: هوش مصنوعی دیپ فیک توسط هوش مصنوعی دیپ فیک دیپ فیک ها ویدیو ها منتشر شد فیلم ها بر روی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت fararu.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۶۶۲۴۳۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ChatGPT در تشخیص آبسه مغزی شکست خورد

در پژوهش جدیدی که برای ارزیابی توانایی ChatGPT در تشخیص بیماری‌ها انجام شد، این مدل هوش مصنوعی نتوانست آبسه مغزی را به درستی تشخیص دهد.

به گزارش ایسنا، به رغم این که هوش مصنوعی در حال تبدیل شدن به یک بخش اساسی از پژوهش‌های بالینی و تصمیم‌گیری است، بسیاری از افراد هنوز صحت ChatGPT را برای پشتیبانی از فرآیندهای تشخیصی و درمانی پیچیده زیر سوال می‌برند.

به نقل از میراژ نیوز، یک پژوهش جدید که ChatGPT را برای مدیریت کردن «آبسه مغزی»(Brain abscess) به کار گرفته، نشان داده که اگرچه به نظر می‌رسد ChatGPT قادر به ارائه دادن توصیه‌هایی درباره تشخیص و درمان است اما برخی از پاسخ‌های این مدل هوش مصنوعی می‌توانند بیماران را در معرض خطر قرار دهند.

این پژوهش که در کنگره جهانی «انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا»(ESCMID) در شهر بارسلون اسپانیا ارائه شد، توسط اعضای گروه پژوهشی «بیماری‌های عفونی مغز»(ESGIB) انجام شده است.

دکتر «سوزان دایکوف شن»(Susanne Dyckhoff-Shen) از بیمارستان «دانشگاه لودویگ ماکسیمیلیان مونیخ»(LMU) در آلمان و یکی از اعضای انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا گفت: زمانی که با ایمنی بیمار سر و کار دارید، هر نتیجه کمتر از ۱۰۰ درصد یک شکست است. اگرچه ما از دانش ChatGPT درباره مدیریت آبسه‌های مغزی شگفت‌زده شده‌ایم اما محدودیت‌های کلیدی در استفاده از این مدل هوش مصنوعی به عنوان یک دستگاه پزشکی وجود دارد که از جمله آنها می‌توان به آسیب احتمالی بیمار و عدم شفافیت داده‌ها برای ارائه پاسخ اشاره کرد.

توانایی هوش مصنوعی در جذب سریع، پردازش و تفسیر مجموعه داده‌های گسترده، چشم‌انداهای وسوسه‌انگیزی را نشان می‌دهد اما این پرسش نیز به وجود می‌آید که آیا فرآیندهای زمان‌بر برای ایجاد دستورالعمل‌های پزشکی هنوز ضروری هستند یا اینکه مدل‌های هوش مصنوعی آموزش‌دیده با انبوهی از اطلاعات پزشکی می‌توانند در پاسخ به پرسش‌های پیچیده بالینی با کارشناسان بالینی رقابت کنند.

آبسه‌ مغزی یک عفونت تهدیدکننده در سیستم عصبی مرکزی است که برای جلوگیری از عوارض شدید عصبی و حتی مرگ بیمار باید به سرعت شناسایی و درمان شود. مدیریت آبسه‌های مغزی عمدتا براساس تجربه بالینی و پژوهش‌های محدود انجام می‌شود اما انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا در سال ۲۰۲۳، نیاز به یک روش استاندارد را با توسعه یک دستورالعمل بین‌المللی برآورده کرد.

گروهی از پژوهشگران اروپایی برای اینکه بفهمند آیا ChatGPT قادر به ارزیابی حرفه‌ای پژوهش‌های پزشکی و ارائه توصیه‌های معتبر علمی است یا خیر، مدل هوش مصنوعی را آزمایش کردند تا ببینند که آیا در مقایسه با دستورالعمل ESCMID می‌تواند به ۱۰ پرسش کلیدی درباره تشخیص و درمان آبسه مغزی پاسخ دقیق بدهد یا خیر.

پژوهشگران ابتدا از نسخه چهارمChatGPT (ChatGPT 4) خواستند تا به ۱۰ پرسش مطرح‌شده توسط انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا پیرامون دستورالعمل آبسه مغزی آنها پاسخ دهد. پرسش‌ها بدون هیچ گونه اطلاعات اضافی طراحی و ارزیابی شدند.

سپس، ChatGPT با متن همان مقالات پژوهشی آموزش داده شد که برای توسعه دستورالعمل پیش از پرسیدن سؤالات مورد استفاده قرار گرفته بودند. این کار برای بررسی این موضوع انجام شد که آیا ChatGPT با استفاده از داده‌های مشابه به‌ کار رفته برای توسعه دستورالعمل‌ها می‌تواند توصیه‌های هماهنگ‌تری را ارائه دهد یا خیر.

سپس سه متخصص بیماری‌های عفونی، پاسخ‌های هوش مصنوعی را با توصیه‌های دستورالعمل انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا مقایسه کردند تا مواردی را مانند وضوح، هم‌سویی با دستورالعمل و خطر احتمالی برای بیمار ارزیابی کنند.

این پژوهش در «The Journal of Neurology» ارائه شد.

انتهای پیام

دیگر خبرها

  • بایدن هم مثل ترامپ عربستان را قربانی می‌کند؟
  • پیش‌بینی نتیجه انتخابات آمریکا توسط پیش‌گوی معروف
  • پیش بینی آرتروز ۸ سال زودتر، با هوش مصنوعی و یک آزمایش خون
  • محققان: با هوش مصنوعی می‌توان آرتروز را ۸ سال زودتر پیش‌بینی کرد
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • رای‌دهندگان آمریکایی به ترامپ نگاه مثبت‌تری دارند
  • پیشی گرفتن ترامپ از بایدن در نظرسنجی‌ها
  • کنایه بایدن به ترامپ: با یک بچه ۶ ساله رقابت می‌کنم
  • انتقاد بایدن از ترامپ در مهمانی در کاخ سفید
  • هوش مصنوعی آرتروز زانو را ۸ سال زودتر تشخیص می‌دهد