مسئول مركز تحقیقات و آینده پژوهی سازمان سراج:

هوش مصنوعی می تواند باعث تولید و انتشار اخبار جعلی شود

هوش مصنوعی می تواند باعث تولید و انتشار اخبار جعلی شود به گزارش آنی تل، مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با تکیه بر این که هوش مصنوعی می تواند باعث تولید اخبار جعلی شود، اظهار داشت: باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم.



به گزارش آنی تل به نقل از مهر، سید سجاد شریعتی ضمن اشاره به «نسبت هوش مصنوعی با فیک نیوز و تحولی که ایجاد می کند»، اظهار داشت: هر چیزی که بعنوان جنگ ترکیبی، فیک نیوز، هجوم رسانه ای و حتی رسانه و زیست بشری می شناسیم، با تحولاتی که در سال های آتی در هوش مصنوعی رخ می دهد، تغییر می کند و متحول می شود. وی ادامه داد: میزان تولید و توزیع خبر دروغ با هوش مصنوعی رشد تصاعدی می یابد. ازاین رو هرچه کنش ورزی می خواهیم، باید در حوزه هوش مصنوعی باشد تا اثرگذار شود. شریعتی با تکیه بر این که ابتدا باید هوش مصنوعی را بشناسیم، اظهار داشت: هوش مصنوعی در سه نسل تعریف می شود. نسل اول هوش مصنوعی، هوش مصنوعی محاسباتی و منطقی است که از دهه ۶۰ شروع شد. این روند تا ۲۰۱۰ در همین حیطه وجود داشت. مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج اضافه کرد: شکل بعدی هوش مصنوعی از ۲۰۱۰ شروع شد به خاطر تحول در داده ها و اینترنت رخ داد. وقتی کلان داده فراهم گردید، به نسل جدید منتقل شدیم. هر چند خیلی چیزها وجود دارد که هنوز لمس نکرده ایم. باید تعامل با ماشین را بشناسیم و زبان ماشین را درک نماییم و متوجه شویم چگونه حرف ما را می شنود و چگونه سوال نماییم که به ما پاسخ بدهند. وی نسل سوم هوش مصنوعی را AGI یا هوش مصنوعی عام توصیف کرد و اظهار داشت: در سراج به این نوع هوش، هوش مدبر یا عقل فعال می گوییم که می تواند به صورت انفرادی چیزها را یاد بگیرد، رشد کند، توسعه یابد و در انتها خود هوش را تولید نماید. دکتر شریعتی اظهار داشت: شبکه عصبی مصنوعی ماشین هایی هستند که مانند مغز انسان یاد می گیرند. مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج ضمن اشاره به مدل زبان های بزرگ، اظهار داشت: این مدل پردازش زبان های طبیعی دارد که بررسی می کند چگونه انسان ها کلمات را کنار هم قرار می دهند. دکتر شریعتی با بیان این که وقتی هوش مصنوعی روی اکوسیستم می نشیند، اتفاق اصلی رخ داده است، اظهار داشت: هوش مصنوعی می تواند بالای اکوسیستم دیجیتال بنشیند و اپلیکیشن های مختلف را عرضه نماید. وی به تشریح ۴ مسیر اصلی و کاربرد هوش مصنوعی در حوزه فیک نیوز پرداخت و اظهار داشت: دیپ فیک، اتاق پژواک، اتاق محتوا و دستکاری داده، پایه ۴ مسیر اصلی است. این چهار مسیر اصلی ترین مسیرهای مساهمت هوش در حوزه خبر جعلی و اطلاعات غلط است. هر کدام از این ابزارها می توانند به تنهایی موج های سایبری و رسانه ای را در جهت تولید و انتشار اخبار دروغین ایجاد کنند.
مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج اظهار داشت: باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم و دروغ سراسر روابط انسانی را بگیرد.
وی اظهار داشت: برجسته ترین عملکرد دیپ فیک ها ضد سیاستمداران و فضای سیاسی صورت می گیرد. اما بیشتر زمانی خطرناک تر می شود که به تولید فضای جعل و دروغ در جامعه وارد شود. در این صورت باید بترسیم که کلاهبرداری ها اتفاق بیفتد، فیلم بسازند و روابط انسان ها را تخریب کنند. وی با بیان این که برای مقابله با این چالش ها، باید به راهکار اندیشید، اظهار داشت: ما برای شناسایی و پیشگیری از اخبار جعلی، از ابزارهای هوش مصنوعی استفاده می نماییم. ما می توانیم با تحلیل داده ها، محتوا، منبع و مخاطب اخبار، میزان صحت و اعتبار آنها را سنجیده و به مخاطبان اطلاع دهیم. ما همینطور می توانیم با آموزش و افزایش سواد فضای مجازی، مردم را قادر به تشخیص و انتقاد از اخبار جعلی نماییم.


منبع:

1402/10/02
08:52:49
5.0 / 5
368
تگهای خبر: ابزار , اپل , اپلیكیشن , اثر
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان آنی تل در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۶ بعلاوه ۲
anitel.ir - حقوق مادی و معنوی سایت آنی تل محفوظ است (1395-1403)

آنی تل


فناوری اطلاعات و ارتباطات