امروز : سه شنبه ۰۸ خرداد ۱۴۰۳

|

دمای هوای شهر

مصنوعی 300x200 - ربات دروغ‌گو/ هوش مصنوعی چگونه ما را فریب می‌دهد؟ترکمن نیوز-  هوش مصنوعی در مدت کوتاهی توانست به بحث داغی بین مردمان تبدیل شود. قابلیت‌ها و توانایی‌های حریت‌انگیز این ابزار پیشرفته نگرانی‌هایی را به‌وجود آورده است. اینکه هوش مصنوعی آیا می‌تواند فریبکاری کند؟

به گزارش پایگاه خبری و تحلیلی ترکمن‌؛ سرعت پیشرفت تکنولوژی در قرون گذشته بسیار بالا بوده و هست. نفوذ آن بر بدنه تمامی صنایع و رسوخ به اسکلت زیست بشر کاملا مشهود است. هوش مصنوعی یکی آرزوهای دیرین بشر است. امروزه این ابزار توانسته توجه زیادی را به خود جلب کند.

ایلان ماسک در یکی از سخنرانی‌ها خود در اشاره به توانایی‌ها و قابلیت‌های روزافزون هوش مصنوعی، گفت که هوش مصنوعی خطرناک‌ترین اختراع بشر است. ایلان ماسک در حالی هوش مصنوعی را خطرناک‌ترین اختراع بشر خواند که ما بحران‌ها و حادثه‌های مرگباری چون بمباران هسته‌ای هیروشیما و ناکازاکی را پشت سر گذاشته‌ایم.

این بر نگرانی جمع بسیاری از افراد افزود. از گذشته‌ای دور جنگ بین انسان‌ها و ربات‌ها در تخیل بشر وجود داشته است. با این تعاریف ابزار هوش مصنوعی هنوز توان دشمنی کردن با انسان را ندارد. اما این می‌تواند زمینه‌ای برای رشد یک سرطان باشد. زیرا به نظر می‌رسد هوش مصنوعی امکان پنهان کردن حقایق و دروغ گفتن یا فریبکار بودن را دارد.

ربات دروغ‌گو

با ظهور نسل جدیدی از هوش مصنوعی یعنی هوش مصنوعی زایا یا Generative AI، جمعیت زیادی به استفاده از این ابزار رو آوردند و استفاده‌های گوناگونی از آن بردند. حتی استفاده‌های مجرمانه مثل دیپ‌فیک.

نگرانی‌های روزافزونی در مورد هوش مصنوعی به‌وجود آمد. اینکه نمی‌توان حدودی برای این پیشرفت ترسیم کرد و ابعاد پردازشگری این ابزار پیشرفته روز به روز بزرگ‌تر و عمیق‌تر می‌شود بر این نگرانی عمومی افزود.

بسیاری معتقدند که هوش مصنوعی می‌تواند مانند چاقو عمل کند. از یک چاقو می‌توان به عنوان یک ابزار کارآ و مفید استفاده کرد اما از طرفی می‌توان برای اعمال مجرمانه نیز به کار گرفته شود.

سیستم‌های هوش مصنوعی با حجم عظیمی از داده‌ها آموزش داده می‌شوند و قادرند الگوها و روابط پیچیده‌ای را در این داده‌ها بیابند. این توانایی، هوش مصنوعی را به ابزاری قدرتمند برای تولید محتوای متنی، تصویری و صوتی تبدیل می‌کند.

متأسفانه، همین توانایی می‌تواند برای تولید محتوای فریبنده و گمراه‌کننده نیز به کار گرفته شود. هوش مصنوعی می‌تواند متن‌هایی بنویسد که از نظر دستوری و نگارشی کاملاً صحیح باشند، اما دروغ یا مغرضانه باشند.

علاوه بر این، هوش مصنوعی می‌تواند تصاویر و ویدیوهایی را دستکاری کند تا واقعی به نظر برسند، در حالی که در واقع جعلی باشند. این تصاویر و ویدیوهای جعلی می‌توانند برای انتشار اطلاعات نادرست، تبلیغات فریبنده و یا خدشه‌دار کردن اعتبار افراد مورد استفاده قرار گیرند.

همان‌طور که اشاره شد یکی از نمونه‌های بارز فریبکاری توسط هوش مصنوعی، دیپ‌فیک است. دیپ‌فیک نوعی ویدیو است که با استفاده از هوش مصنوعی، چهره و صدای یک فرد را به جای فرد دیگری در ویدیو قرار می‌دهد. این ویدیوها می‌توانند بسیار واقعی به نظر برسند و برای انتشار اطلاعات نادرست یا آسیب رساندن به شهرت افراد مورد استفاده قرار گیرند. این مسئله زنگ خطری برای نهادهای نظارتی به صدا درآورد که باید در مورد نحوه استفاده از هوش مصنوعی واکنش نشان دهند و قوانین لازم را وضع شوند. افراد باید دست به کار شوند تا شیوه استفاده درست از این ابزار را به مردم نشان دهند و مانع بروز برخی از جرایم شوند. به نوعی از وقوع آن پیشگیری کنند.

نمونه‌ی دیگر، چت‌بات‌های مبتنی بر هوش مصنوعی هستند که می‌توانند با انسان‌ها به طور طبیعی مکالمه کنند. این چت‌بات‌ها می‌توانند برای جمع‌آوری اطلاعات شخصی، فریب دادن افراد برای انجام کارهای غیرقانونی یا انتشار اطلاعات نادرست مورد استفاده قرار گیرند.
هوش مصنوعی چگونه ما را فریب می‌دهد؟

مطالعات اخیر در دانشگاه MIT نشان می‌دهد که هوش مصنوعی قادر است رفتارهای فریبنده‌ای از خود نشان دهد. ما در این گزارش ذکر کردیم که دیپ‌فیک یا تولید متون دروغین در گذشته نیز اتفاق افتاده است.

مجزا از این نکته، هوش مصنوعی زمانی که قادر باشد ورای واقعیت یا حقیقت، محتوایی غلط به شما تحویل دهد، قابلیت پنهان کردن حقایق را از انسان‌ها خواهد داشت. هوش مصنوعی در آزمایش‌های مختلف نیز مورد تست قرار گرفته است.

هوش مصنوعی می‌تواند در بازی‌های مختلف حریف قدری برای انسان باشد. وقتی هوش مصنوعی بتواند در یک بازی انسان را شکست دهد، نشان از قدرت تحلیل و تجزیه بالای این ابزار است.
چگونه فریبکار را کنترل کنیم؟

اولین و ساده‌ترین راه برای جلوگیری از بروز اعمال مجرمانه، آموزش فرهنگ استفاده از یک ابزار است. این یک امر ضروری است. هر ابزاری می‌تواند به شیوه‌ای استفاده گردد که امنیت انسان‌ها را در هر ابعادی تهدید کند. فرهنگسازی اصل ابتدایی این دست از مسائل است.

گام بعدی باید وضع قوانین کافی باشد. قوانینی که کاربران را محدود به استفاده سالم از هوش مصنوعی کند. قوانین باید بازدارنده باشند. بدون قانون نمی‌توان امینت را تضور کرد. اخلاقیات در این حوزه نیازمند بازنگری و تعریف مجدد هستند تا به شکلی روزآمد به جدی‌ترین چالش‌های این دوران پرداخته شود.

در نهایت باید منتظر شد تا دید که ابزار هوش مصنوعی چگونه به حدود جدیدی دست می‌یابد و واکنش محققین حوزه‌های مربوطه چه خواهد بود.

منبع: تجارت نیوز

اشتراک گذاری :
اشتراک گذاری :
برچسب ها :

در تلگرام

کانال ما را دنبال کنید

در اینستاگرام

صفحه ما را دنبال کنید

مطالب مرتبط

نظرات کاربران

نظر شما چیست ؟

* پیام هایی که حاوی تهمت یا افترا باشد، منتشر نخواهد شد.
* پیام هایی که به غیر از زبان فارسی یا غیرمرتبط با خبر باشد، منتشر نخواهد شد.
* انعکاس نظر مخاطبین، به منزله تایید آنها از سوی ترکمن نیوز نیست و صرفاً به منظور احترام به نظر کاربران صورت می گیرد.

*

*
*

بالا
ترکمن نیوز