چهارشنبه 13 تیر 1403    2024/7/3

سه شنبه 13 تیر 1402 ، 52 : 10

کد خبر :

افسانه مظفری :

هوش مصنوعی و اخلاق رسانه‌ای

تغییرات اجتماعی به شکلی اجتناب ناپذیر و پرشتاب در جوامع اتفاق می افتد؛ رشد جمعیت، شهرنشینی و تغییر ترکیب جمعیت جوانان نسبت به سالمندان هرکدام در این مورد نقش دارند اما کانون اصلی تغییرات را می‌توان پیشرفت های تکنولوژیکی دانست که یکی از این تکنولوژی های جدید هوش مصنوعی است.

با ظهور هوش مصنوعی روزنامه نگاران و دست اندرکاران رسانه ای فرصت های جدیدی با استفاده از این ابزار جدید در اختیارشان قرار گرفته است که امکان ارزیابی صحت منابع و اخبار، امکان تشخیص سوگیری و تعصب‌ها در پوشش‌های خبری، شناسایی بهتر مخاطب و نیازهای او، تعامل و برقراری ارتباط بهتر و سریعتر با مخاطب، بازخوردگیری سریع شخصی‌سازی محتوا، هزینه‌ پایین تولید مطالب خبری، پوشش خبری سریع و به روزتر با تولید محتوا، متن، صوت و تصویر، پیاده سازی صدا، تنظیم اتوماتیک متن و پوشش خبری دقیق تر و قابل اطمینان‌تر نسبت به پوشش خبری سنتی را مهیا می کند.

تولید همزمان محتوا در قالب های مختلف، بررسی واقعیت (فکت چک) و تجزیه و تحلیل داده‌ها، نقد و تحلیل سریع آثار، کمک به تولید اخبار و گزارش بیشتر و باکیفیت‌تر، ویراستاری دقیق و قالب‌بندی مطلب در صفحه، کاهش اتلاف وقت و افزایش سرعت تولید اخبار، اسکن مقادیر زیادی از داده بر مبنای معیارهایی خاص (مثل نویسندگان، موضوع، کلمات کلیدی و ...)، شناسایی و تشخیص سریع اشیا و چهره‌های مشهور در آرشیو عکس‌ و ویدئوها، جست و جوی سریع مرتبط‌ترین محتواها در آرشیو در کمترین زمان، خودکارسازی توزیع محتوای خبری و با سرعت، کمک به استخراج داده های بزرگ از فیلم ها و تصاویر از دیگر ابزارهایی هستند که به واسطه هوش مصنوعی در اختیار خبرنگاران و فعالان رسانه ای قرار گرفته است.

به نظر می رسد این ابزار و تکنولوژی های فوق هوشمند به جای انسان‌ها فکر و حتی بهتر از آنها نظارت و کنترل می کنند و تصمیم می گیرند. به همین دلیل هم بسیاری از کارگران دانش‌محور مانند روزنامه‌نگاران، بازاریابان و سایر دست اندرکاران به‌شدت نگران جایگزین شدن این تکنولوژی به جای خودشان و نهایتا بیکار شدن هستند. البته این نگرانی ها بجاست و دیر یا زود شاهد قدرت‌نمایی و نقش‌آفرینی این ماشین‌ها و ربات‌ها خواهیم بود، با این‌همه باید دانست که هوش مصنوعی بیش از آنکه باعث از بین رفتن یکسری مشاغل شود، موجب ایجاد شغل‌های جدید نیز خواهد شد. اما در هر صورت با توجه به عوامل مختلف و تأخر فرهنگی در استفاده از تکنولوژی ها، ترس از تکنولوژی و سردرگمی اجتناب ناپذیر است.

دغدغه های مرتبط با هوش مصنوعی

با تمام مزایایی که هوش مصنوعی دارد اما، امروزه ذهن متخصصان بیش از پیش درگیر موضوع و چالش‌های اخلاقی بهره‌گیری از هوش مصنوعی است که در ادامه به شماری از مهم ترین این دغدغه ها اشاره خواهد شد؛

امروزه سیستم اقتصاد در همه جوامع وابسته به کار و دستمزد ساعتی است. قاعدتا جایگزینی هوش مصنوعی به جای نیروی کار انسانی سبب درآمد کمتر و ایجاد شکاف اقتصادی و نهایتا نابرابری است.

تاکنون بارها شاهد تبعیض بین اقلیت ها، تعصب و تبعیض جنسیتی بر اساس الگوریتم ها و محاسبات نادرست هوش مصنوعی بوده ایم. انتظار می رود این ربات های نژاد پرست، به‌دلیل استفاده از داده‌های متعصبانه، قضاوت های مغرضانه و گمراه کننده ای ارائه دهند. در آینده هم شاهد عواقب اخلاقی هوش مصنوعی پیش‌بینی نشده و غیر انسانی با ارائه راه حل هایی صرفا بر مبنای داده ها خواهیم بود.

تحقیقات نشان داده است که استفاده از تکنولوژی های جدید و هوش مصنوعی، وابستگی و اعتیاد می آورد. اما سوال اینست با پیچیده تر شدن این ربات ها و ماشین ها، از دید انسانی و اخلاقی، این ماشین ها و ربات ها چگونه بر رفتار، تعاملات و ارتباطات انسانی تاثیر می گذارند و آیا حق و حقوقی دارند؟

بنظر می رسد برخی از مردم نمی‌توانند یا نمی خواهند بر هوش مصنوعی غلبه کنند، چرا که از آن برای پیشبرد اهداف خود استفاده می کنند.

همچنین مواردی از قبیل استفاده نادرست از سیستم های هوش مصنوعی و بحث مهم امنیت سایبری، عدم رعایت حق مالکیت معنوی و سرقت ادبی، عدم شفافیت و صحت اطلاعات و تعریف مسئولیت پذیری در پوشش خبری، عدم پایبندی به اصول اخلاقی حرفه ای و رسانه ای، رعایت پوشش خبری بیطرفانه و منصفانه به موازات رعایت شفافیت، صداقت، عدالت و عدم سوگیری در انتخاب و انتشار مطالب و داشتن و یا مساله بحث برانگیز نداشتن تنوع و خلاقیت از جانب هوش مصنوعی از دیگر دغدغه ها به شمار می آید.

اینکه کنترل و مدیریت یک سیستم هوشمند یعنی هوش مصنوعی چگونه خواهد بود؟ آیا هوش مصنوعی تهدیدی برای تنوع فرهنگی بشمار می آید یا خیر، نیز از دیگر مواردی است که باید مورد توجه قرار گیرد.

پیشنهادها

همان طور که گفته شد، تغییرات و تکامل مداوم هوش مصنوعی تأثیر عمیقی بر آینده‌ ‌روزنامه‌نگاری و اخلاق رسانه‌ای می‌گذارد؛ بنابراین سازمان‌های رسانه‌ای، روزنامه‌نگاران و سیاست‌گذاران می‌بایست همکاری کنند تا مطمئن شوند که محتوای تولید شده توسط هوش مصنوعی به گونه‌ای تنظیم می‌شود که به اصول اخلاقی روزنامه‌نگاری و اخلاق رسانه‌ای پایبند باشد.

برنامه‌ریزان هوش مصنوعی باید به مسائل انسانی و اخلاقی توجه ویژه‌ای داشته باشند و زندگی و کار کسانی را که در نتیجه گسترش هوش مصنوعی تحت‌تاثیر قرار می‌گیرد را نیز مدنظر قرار دهند تا به تحقق رویای هوش مصنوعی اخلاق‌گرا و کارآفرین بیش‌ازپیش امیدوار بود.

آشتی دادن هوش مصنوعی با کارکنانی که نگران تنزل جایگاه و یا بیکار شدن شان در آینده هستند نیز مساله ای مهم است و در واقع باید سیستم‌های هوش مصنوعی با نیروی کار انسانی «ترکیب شوند» نه اینکه جای آنها را بگیرند و آنها را به حاشیه برانند.

باید پذیرفت که شاه‌کلید موفقیت سیستم‌های هوش مصنوعی در عرصه عمل این است که چه در زمان طراحی، چه در حین اجرا و چه پس ‌از آن باید برای انسان یک نوع عاملیت و تاثیرگذاری ملموس تعریف شود و این امکان و اختیار به انسان‌ها داده شود تا برخی کارکردهای حساس و مهم را بر عهده بگیرند و برای حل مسائل راه‌حل‌های انسانی ارائه دهند.

روزنامه نگاران و دست اندرکاران رسانه ها باید به دنبال هوش مصنوعی کارآفرین و خلاق باشند و پایبندی به اصول حرفه ای و اخلاقی از جمله عدالت، شفافیت، انصاف، مسئولیت پذیری، عدم سوگیری و تبعیض در پوشش خبری را در سر لوحه کارهای خود قرار دهند.

آموزش و داشتن سواد رسانه ای برای کاربران و مخاطبان در راستای تعهد و پایبندی به اصول اخلاق حرفه ای، لازم و ضروری است.

اگرچه دستورالعمل‌های اخلاقی صنعت هوش مصنوعی به قانون‌گذاران پیشنهاد می‌کند که خودگردانی داخلی در علم و صنعت، کافی است و هیچ قانون خاصی برای کاهش خطرات احتمالی فناوری و حذف سناریوهای سوء استفاده، لازم نیست اما برخی از کشورها قوانین خاصی را برای جلوگیری از چالش های اخلاقی هوش مصنوعی به کار می بندند. پیشنهاد می شود شکل جدیدی از ارزیابی فناوری به وجود آید که بر پیامدهای اخلاقی فناوری‌های جدید تمرکز داشته باشد.

یکی از تدابیر موثر برای جلوگیری از شوک فراگیر آینده و چالش های اخلاقی آن، عبارت است از تنظیم آگاهانه پیشرفت تکنولوژیکی، تنظیم‌گری، برنامه‌ریزی، سیاست‌گذاری و مدیریت هوشمندانه که در این مسیر می تواند راهگشا باشد.

ارزیابی فناوری اخلاقی (ETA) به عنوان ابزاری برای شناسایی آثار نامطلوب فناوری های جدید در مراحل اولیه عمل خواهد کرد. این ارزیابی در مقاطع زمانی خاص، به شکل یک گفتگوی مستمر باید انجام شود. برخی اعتقاد دارند این ارزیابی ها نباید متعصبانه و حتی متعهد به نظریه خاصی باشد و تنها راه حل های مختلف را با دیدگاه های خاص مورد بررسی قرار داد.

از نظر محقق، پذیرش نوع فرهنگ و ایدئولوژی هر جامعه ای، به انجام موفقیت آمیز ارزیابی فناوری اخلاقی کمک شایانی خواهد کرد.


سه شنبه 13 تیر 1402 ، 52 : 10

کد خبر :

بازدید : 230
• بزرگنمایی متن خبر


سرخط اخبار فرهنگی

پربازدیدترین ها