۲۱ فروردين ۱۴۰۳ - ۱۱:۳۵
کد خبر: ۷۴۵۱۵
گسترش فناوری هوش مصنوعی، مصرف‌کنندگان و تولیدکنندگان رسانه‌ها را مجبور می‌کند تا نحوه استفاده از اینترنت را تغییر دهند.

به گزارش پایداری ملی به نقل از آنا، بهترین مدل‌های زبان بزرگ می‌توانند مانند انسان بنویسند، به خصوص اگر به درستی از آنها خواسته شود. عکس‌ها و تصاویر را می‌توان با هزینه کم جعلی کرد. فناوری که هنوز منتشر نشده است می‌تواند شبیه سازی‌های صوتی قانع کننده‌ای ایجاد کند. نشانه‌هایی وجود دارد که برخی از مقالات دانشگاهی حاوی ردپای از «جی‌پی‌تی-۴» (GPT-۴) هستند.

به عبارت دیگر با گسترش انقلاب هوش مصنوعی، تقلبی‌های مجهز به هوش مصنوعی نیز گسترش خواهند یافت. این موضوع امری اجتناب‌ناپذیر است، اما می‌توان آن را مدیریت کرد تا زمانی که مصرف‌کنندگان و تولیدکنندگان تنظیمات قابل‌توجهی در نحوه استفاده از اینترنت انجام دهند.

اینترنت پس از ظهور هوش مصنوعی دارای محتوای رایگان و تبلیغاتی و درنتیجه مملو از تقلبی‌های هوش مصنوعی خواهد بود که با کمترین میزان شباهت طراحی شده‌اند. نخستین سوالی که به وجود می‌آید این است که آیا کسی متوجه این تقلب‌ها خواهد شد؟ در حال حاضر تعداد زیادی رسانه بی‌کیفیت و غیر قابل اعتماد وجود دارد که عمدتاً توسط هوش مصنوعی هدایت نمی‌شوند.

فناوری تشخیص تقلب هوش مصنوعی تکامل یافته و بهبود خواهد یافت. تا زمانی که هوش مصنوعی کار کند، اینترنت رایگان و پشتیبانی شده از تبلیغات ادامه خواهد داشت. خوانندگان، شنوندگان و بینندگان می‌توانند از هوش مصنوعی خود برای یافتن محتوای مورد علاقه خود استفاده کنند و درصدی از آنها ممکن است محتوای تقلبی را ترجیح دهند. به هر حال، اخبار هفتگی جهان همچنان مخاطب دارد.

با این حال، حتی با فرض کارکرد ردیاب‌های جعلی، سایت‌های خبری اصلی با رقابت بیشتری روبرو خواهند شد. سایت‌های جایگزین محتوای خود را جعل می‌کنند و پیچ و تاب‌هایی اضافه می‌کنند که گاهی توسط دولت‌های خارجی حمایت می‌شوند. برخی از موثرترین رسانه‌ها ممکن است ۹۸ درصد مشروع باشند، اما نرخ تقلبی ۲ درصد در برخی ابعاد حیاتی، مانند پوشش جنگ‌های خارجی یا رسوایی‌های شخصی وحشیانه، می‌تواند قابل توجه باشد.

اقدامات رسانه‌ها برای مقابله با اخبار جعلی هوش مصنوعی

البته نهاد‌ها برای محدودکردن دامنه این مشکلات تکامل خواهند یافت. بهترین و معتبرترین مطالب احتمالاً در سایت‌هایی با نظارت بالا قرار می‌گیرند که فقط به صورت اشتراک در دسترس هستند. ممکن است این سایت‌ها هم گاهی اوقات اشتباه کنند و مطالب جعلی را منتشر کنندY اما اصالت آنها نقطه فروش اصلی آنها خواهد بود.

این سایت‌ها برای ایجاد انواع محتوایی که هوش مصنوعی به راحتی نمی‌تواند آنها را جعل کند، سخت کار می‌کنند. به عنوان مثال، ستون نویسان با شخصیت‌های شناخته شده، نسبت به نویسندگان عمومی‌تر، مهم‌تر خواهند شد. برای مثال، حتی اگر یک هوش مصنوعی بتواند سبک یک روزنامه‌نگار حرفه‌ای را تقلید کند، نمی‌تواند خود او باشد و بسیاری از خوانندگان، به نظر او در مورد یک موضوع اهمیت می‌دهند. آنها نسخه شبیه سازی شده با هوش مصنوعی را نمی‌خواهند، مهم نیست که چقدر کیفیت آن بالا است؛ بنابراین رسانه‌ها برای تبلیغ برند‌های شخصی نویسندگان خود تلاش بیشتری خواهند کرد.

همچنین این سایت‌ها محتوای خود را هوشمندتر و پیچیده‌تر می‌کنند، اقدامی که کار را برای سایت‌های مبتنی بر هوش مصنوعی رایگان و تولید نسخه‌های جعلی سخت‌تر می‌کند. برای مثال، «سورا» (Sora)، سرویسی از اوپن ای‌آی، می‌تواند یک ویدیوی دو دقیقه‌ای خوب بسازد، اما ساختن ویدیو‌های طولانی‌تر ممکن است مقرون‌به‌صرفه نباشد؛ بنابراین برخی از رسانه‌ها ممکن است شروع به انتشار ویدیو‌های طولانی‌تر کنند.

خبرنگاران باید سخت‌تر کار کنند

خبر بد این است که خبرنگاران باید سخت‌تر کار کنند. خبر خوب خبری است که در نهایت مشترکان و خوانندگان خود را باهوش‌تر و آگاه‌تر کند. از این رو مسابقه‌ای که رسانه‌ها باید در آن پیروز شوند، حرکت به سمت کیفیتی هرچه بالاتر است.

همچنین می‌توان انتظار داشت که رسانه‌ها به سمت تجارت رویداد‌های زنده حرکت کنند. چرا که تصور اینکه هوش مصنوعی کار مشابهی انجام دهد، حداقل برای مدت طولانی، دشوار است.

با گذشت زمان و ادامه پیشرفت هوش مصنوعی، ممکن است سایت‌های اشتراک ترکیبی با محتوای تولید شده توسط انسان و هوش مصنوعی ایجاد شوند. آنها به جای اینکه سعی در پنهان کردن آن داشته باشند، مشخص خواهند کرد که چه کسی (یا چه چیزی) کدام محتوا را تولید کرده است. مقالاتی که توسط انسان‌ها نوشته شده‌اند ممکن است از یک ربات هوش مصنوعی پیوست داشته باشند که می‌تواند جزئیات بیشتری را ارائه دهد.

مردم حق دارند نگران تقلبی‌های هوش مصنوعی باشند. اما رسانه‌ها نیز باید به اندازه کافی نوآور باشند تا با این واقعیت‌های جدید سازگار شوند.

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر