تصویر آخرالزمانی هوش مصنوعی از دور دوم ریاستجمهوری بایدن!
تاریخ انتشار: ۱۳ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۶۶۲۴۳۴
فناوری دیپفیک و تولید تصاویر جعلی توسط هوش مصنوعی تشخیص حقیقت و دروغ را هر روز دشوارتر از دیروز میکند. به تازگی فیلمی جعلی با تصاویر تولید شده توسط هوش مصنوعی منتشر شده که نشان میدهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد.
به گزارش خبرآنلاین به نقل از فوربس، دیپفیک (Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیوهای دروغ، اما واقع گرایانه ساخته میشوند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
دیپفیکها با فریب دادن مردم در مورد افراد مشهور و شخصیتهای سیاسی، کارها و سخنانی را به آنها نسبت میدهند که واقعی نیستند. اما اشتباهاتی ساده مانند نبودن انگشتهای دست یا کیفیت پایین برخی ویدیوها، نشانه واضحی از این است که برخی تصاویر و فیلمها اصلاح شدهاند.
دیپفیکها شکلی از هوشمصنوعی با نام «یادگیری عمیق» هستند و زمانی که در برخی دادههای خود مشکلی پیدا میکنند، آن را حل کرده و برای ساخت فیلمها و عکسهای جعلی، چهرهها را عوض میکنند.
برخی از دیپفیکها به قصد طنز و کمدی ساخته میشوند، مانند مجموعهای از دیپفیکهای نیکلاس کیج در فیلمهایی مانند «مهاجمان صندوق گمشده» و «مرد پولادین» که او در آنها بازی نکرده است.
بسیاری افراد از این قابلیت هوش مصنوعی برای انتقام جویی و عمدتا با استفاده از چهره افراد مشهور و ساخت فیلمهای مستهجن استفاده کردهاند. طبق گزارش دیپتریس، ۹۶ درصد از تمام ویدیوهای دیپفیک که در سال ۲۰۱۹ به صورت آفلاین یافت شدند، پورنوگرافی بودند. مثلا در سال ۲۰۱۷ از چهره اشخاص معروفی مانند تیلور سوئیفت و اسکارلت جوهانسون برای اینکار استفاده شده بود.
شخصیتهای سیاسی نیز به طور گسترده قربانی این دیپفیکها میشوند. به عنوان مثال ویدئویی جعلی از باراک اوباما در سال ۲۰۱۸ منتشر شد که در آن اوباما، دونالد ترامپ را «یک فرد احمق به تمام معنا» خطاب میکند.
شرکتهای رسانههای اجتماعی معروفی نظیر، متا، توییتر و تیکتاک انتشار دیپفیک و فیلمهای فریبنده را در پلتفرمهای خود ممنوع کردهاند، اگرچه تشخیص سریع آنها قبل از اینکه به سرعت منتشر شوند کار سختی است.
پس از اینکه جو بایدن در صبح روز سهشنبه برای کمپین انتخابات مجدد اعلام آمادگی کرد، کمیته ملی جمهوریخواهان ویدئویی دروغین با تصاویر تولید شده توسط هوش مصنوعی منتشر کردند که نشان میدهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد.
این ویدئو، تصاویری از تخریب، و فروریختن ساختمانهای والاستریت، جنگ و انفجار در تایوان، و آمادگی پلیس با تجهیزات تاکتیکی برای دفاع از سانفرانسیسکو در برابر جرم و جنایت به نمایش میگذارد. سام کورنال، مدیر اجرایی کمیته ملی دموکراتها در توییتی گفت که RNC از هوش مصنوعی به شکل ناامیدکنندهای استفاده کرده است و «چارهای جز درخواست کمک از هوش مصنوعی نداشت».
پس از اینکه الیوت هیگینز، بنیانگذار گروه تحقیقاتی Bellingcat، تصاویر دیپفیکی را از ترامپ که در حال فرار از دست مقامات است، در روز دوشنبه در توییتر به اشتراک گذاشت، این تصاویر غوغایی در رسانههای اجتماعی به پا کرد. اگرچه او در ابتدای مطلب اشاره کرده بود که این تصاویر با استفاده از ابزار هوش مصنوعی Midjourney ایجاد شدهاند.
هیگینز به آسوشیتدپرس گفت که: «دونالد ترامپ در حین دستگیری بر روی زمین افتاد.» با این حال، در این تصاویر «افسران» با کلاه و یونیفورم پلیس با حروف درهم و برهم، و ترامپ با سه پا دیده میشود. هیگینز به آسوشیتدپرس گفت: «من تصور میکردم مردم متوجه میشوند که دونالد ترامپ دو پا دارد، نه سه پا.» ترامپ ممکن است توسط هیئت منصفه منهتن به جعل سوابق تجاری مرتبط با پرداخت حقالسکوت به استورمی دانیلز، در طول مبارزات انتخاباتیاش در سال ۲۰۱۶ متهم شود.
ترامپ روز پنجشنبه تصویری از خود را در پلتفرم شبکه اجتماعی Truth Social منتشر کرد که بر روی زمین زانو زده است. او در این عکس در وسط اتاقی بر روی زمین زانو زده و نورافکن مستقیماً روی او تابیده شده و دستهایش را به هم گره کرده و سرش را خم کرده است.
یکی از نقاط ضعف تصاویر تولید شده توسط هوش مصنوعی، تصاویر مربوط به دستها است. این عکس نیز شامل همین قاعده است. در این عکس به نظر میرسد که او انگشت حلقه دست راستش را از دست داده و انگشتان شستش منحرف شدهاند. همچنین، با وجودی که نورافکن بر روی او تابیده شده است، اما هیچکس در اتاق به رئیسجمهور سابق نگاه نمیکند.
در ویدئویی که او در ماه مه۲۰۲۰ در توییتر به اشتراک گذاشت، ترامپ به جای بیل پولمن در حال خواندن مونولوگ معروف «روز استقلال»، در فیلمی است که بیل نقش رئیس جمهور خیالی ایالات متحده را در آن بازی کرده است. این در حالی است که صدای اصلی فیلم پخش میشود، و صورت ترامپ روی بدن پولمن قرار دارد.
در میان جمعیت، چهره شخصیتهای معروفی مانند ایوانکا ترامپ، تد کروز و شان هانیتی بر روی بدن سربازان فیلم قرار دارد که در حال آماده شدن برای نبرد نهایی با بیگانگان هستند. این باعث شد که بازیگران واکنش نشان دهند و پولمن به هالیوود ریپورتر گفت: "صدای او متعلق به کسی جز [او]نیست". این دیپفیک به اندازه بقیه واقعی نیست، زیرا به وضوح مشخص است که چهره ترامپ بر روی بدن پولمن قرار گرفته است.
چگونه یک دیپفیک را تشخیص دهیمباقیماندههای اضافی: این شامل موارد عجیب و غریب، یا وجود چیزهایی نامناسب در عکس یا ویدیو هستند. اشیایی نظیر کفشها یا گوشوارههای نامتناسب، بدشکل بودن فک، وجود انگشت یا پای اضافه (همانند تصویر جعلی ترامپ).
حرکات چشم: اغلب، در ویدیوهای دیپفیک جعلی، افراد به شکل عجیبی پلک میزنند یا حرکات چشمشان طبیعی نیست. مطالعهای که در arXiv دانشگاه کرنل منتشر شده است، از این موضوع برای تشخیص ویدئوهای جعلی، استفاده کرده است.
کیفیت صدا/فیلم: همانند ویدئوهای ترامپ و اپستین، بسیاری از ویدئوهای دیپفیک، عدم تطابق صوتی و تصویری را نشان میدهند. به عنوان مثال، در ویدئویی از ولادیمیر پوتین، رئیس جمهور روسیه، که رویترز آن را ترجمه کرده است، ادعا میشود که آنها با اوکراین به صلح رسیدهاند، اما حرکات دهان او با صدا مطابقت ندارد.
منابع: از آنجایی که دیپفیکها روز به روز بهتر و متقاعدکنندهتر میشوند، یکی از بهترین راهها برای تشخیص جعلی بودن آنها، بررسی منابع آنها است. اگرچه با وجود رسانههای اجتماعی این کار کمی سختتر شده؛ زیرا هر کسی میتواند ویدیوها و تصاویر را به اشتراک بگذارد. مثلا منبع اصلی ویدئوی منتشر شده از جو بایدن، باید از طرف کاخ سفید، یا یک آژانس رسمی دولتی یا یک پلتفرم خبری معتبر باشد.
تقویت مهارتهای تشخیص: چندین وبسایت به افراد کمک میکنند تا مهارتهایشان را برای تشخیص دیپفیکها بالا ببرند. MIT’s Detect Fakes یک آزمون کوتاه است که به کاربران اجازه میدهد تا دو ویدیو را با هم مقایسه کنند و تصمیم بگیرند کدام یک واقعی است. مایکروسافت Spot the Deepfake یک مسابقه ۱۰ سوالی است که از کاربران میخواهد به نشانههایی مانند حرکت چشمها و واکنشهای احساسی توجه کنند و ویدئوهای دیپفیک را تشخیص دهند.
منبع: فرارو
کلیدواژه: هوش مصنوعی دیپ فیک توسط هوش مصنوعی دیپ فیک دیپ فیک ها ویدیو ها منتشر شد فیلم ها بر روی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت fararu.com دریافت کردهاست، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۶۶۲۴۳۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ChatGPT در تشخیص آبسه مغزی شکست خورد
در پژوهش جدیدی که برای ارزیابی توانایی ChatGPT در تشخیص بیماریها انجام شد، این مدل هوش مصنوعی نتوانست آبسه مغزی را به درستی تشخیص دهد.
به گزارش ایسنا، به رغم این که هوش مصنوعی در حال تبدیل شدن به یک بخش اساسی از پژوهشهای بالینی و تصمیمگیری است، بسیاری از افراد هنوز صحت ChatGPT را برای پشتیبانی از فرآیندهای تشخیصی و درمانی پیچیده زیر سوال میبرند.
به نقل از میراژ نیوز، یک پژوهش جدید که ChatGPT را برای مدیریت کردن «آبسه مغزی»(Brain abscess) به کار گرفته، نشان داده که اگرچه به نظر میرسد ChatGPT قادر به ارائه دادن توصیههایی درباره تشخیص و درمان است اما برخی از پاسخهای این مدل هوش مصنوعی میتوانند بیماران را در معرض خطر قرار دهند.
این پژوهش که در کنگره جهانی «انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا»(ESCMID) در شهر بارسلون اسپانیا ارائه شد، توسط اعضای گروه پژوهشی «بیماریهای عفونی مغز»(ESGIB) انجام شده است.
دکتر «سوزان دایکوف شن»(Susanne Dyckhoff-Shen) از بیمارستان «دانشگاه لودویگ ماکسیمیلیان مونیخ»(LMU) در آلمان و یکی از اعضای انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا گفت: زمانی که با ایمنی بیمار سر و کار دارید، هر نتیجه کمتر از ۱۰۰ درصد یک شکست است. اگرچه ما از دانش ChatGPT درباره مدیریت آبسههای مغزی شگفتزده شدهایم اما محدودیتهای کلیدی در استفاده از این مدل هوش مصنوعی به عنوان یک دستگاه پزشکی وجود دارد که از جمله آنها میتوان به آسیب احتمالی بیمار و عدم شفافیت دادهها برای ارائه پاسخ اشاره کرد.
توانایی هوش مصنوعی در جذب سریع، پردازش و تفسیر مجموعه دادههای گسترده، چشمانداهای وسوسهانگیزی را نشان میدهد اما این پرسش نیز به وجود میآید که آیا فرآیندهای زمانبر برای ایجاد دستورالعملهای پزشکی هنوز ضروری هستند یا اینکه مدلهای هوش مصنوعی آموزشدیده با انبوهی از اطلاعات پزشکی میتوانند در پاسخ به پرسشهای پیچیده بالینی با کارشناسان بالینی رقابت کنند.
آبسه مغزی یک عفونت تهدیدکننده در سیستم عصبی مرکزی است که برای جلوگیری از عوارض شدید عصبی و حتی مرگ بیمار باید به سرعت شناسایی و درمان شود. مدیریت آبسههای مغزی عمدتا براساس تجربه بالینی و پژوهشهای محدود انجام میشود اما انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا در سال ۲۰۲۳، نیاز به یک روش استاندارد را با توسعه یک دستورالعمل بینالمللی برآورده کرد.
گروهی از پژوهشگران اروپایی برای اینکه بفهمند آیا ChatGPT قادر به ارزیابی حرفهای پژوهشهای پزشکی و ارائه توصیههای معتبر علمی است یا خیر، مدل هوش مصنوعی را آزمایش کردند تا ببینند که آیا در مقایسه با دستورالعمل ESCMID میتواند به ۱۰ پرسش کلیدی درباره تشخیص و درمان آبسه مغزی پاسخ دقیق بدهد یا خیر.
پژوهشگران ابتدا از نسخه چهارمChatGPT (ChatGPT 4) خواستند تا به ۱۰ پرسش مطرحشده توسط انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا پیرامون دستورالعمل آبسه مغزی آنها پاسخ دهد. پرسشها بدون هیچ گونه اطلاعات اضافی طراحی و ارزیابی شدند.
سپس، ChatGPT با متن همان مقالات پژوهشی آموزش داده شد که برای توسعه دستورالعمل پیش از پرسیدن سؤالات مورد استفاده قرار گرفته بودند. این کار برای بررسی این موضوع انجام شد که آیا ChatGPT با استفاده از دادههای مشابه به کار رفته برای توسعه دستورالعملها میتواند توصیههای هماهنگتری را ارائه دهد یا خیر.
سپس سه متخصص بیماریهای عفونی، پاسخهای هوش مصنوعی را با توصیههای دستورالعمل انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا مقایسه کردند تا مواردی را مانند وضوح، همسویی با دستورالعمل و خطر احتمالی برای بیمار ارزیابی کنند.
این پژوهش در «The Journal of Neurology» ارائه شد.
انتهای پیام