Wp Header Logo 2469.png

به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، نشست تخصصی «رسانه هاي نوین و چالش هاي اخلاقی» ذیل همایش ملی «دین فرهنگ و رسانه های نوین» عصر سه شنبه در دانشکده دین و رسانه دانشگاه صداوسیما به دبیری دکتر سعید امیرکاوه عضو هیئت علمی دانشگاه صداوسیما برگزار شد.

چالش هاي اخلاقی هوش مصنوعی در رسانه هاي نوین و راهکارهاي مواجهه با آن

در اولین مقاله این نشست سرکار خانم آمنه کلاته آقامحمدي مقاله «چالش هاي اخلاقی هوش مصنوعی در رسانه هاي نوین و راهکارهاي مواجهه با آن» که با همراهی محمدمهدي نصرهرندي نوشته است را ارائه کرد.

در این مقاله پس از طرح 19 چالش هوش مصنوعی در خصوص اخلال در اخلاق از جمله سوگیری هوش مصنوعی، فقدان کیفیت داده، دستکاری اجتماعی و… به رهکارهای مقابله پرداخته است.

چکیده این مقاله در ادامه تقدیم شما می شود:

در سال‌های اخیر هوش‌مصنوعی در صنعت رسانه تحولات بزرگی را ایجاد کرده و موجب افزایش بهره‌وری در موارد زیادی از جمله تولید محتوا، ارتباط با مخاطب و درک مخاطب شده‌است. هوش‌مصنوعی موجب ساده‌سازی فرآیندها، افزایش دقت، سرعت و کاهش هزینه‌ها می‌شود. با استفاده از هوش‌مصنوعی در شبکه‌های اجتماعی اطلاعات کلیدی و بسیار راهبردی در اختیار فعالان بازار قرار می‌گیرد. داده‌هایی که هوش‌مصنوعی به صاحبان مشاغل فعال در شبکه‌های اجتماعی می‌دهد در بهبود و خلق استراتژی‌ها مؤثر هستند. نتایج پژوهش حاضر نشان می دهد نگرانی عمومی در مورد چالش های اخلاقی هوش‌مصنوعی موجه است. هوش‌مصنوعی می‌تواند پیامدهای منفی زیادی داشته‌باشد و چالش های اخلاقی را در خصوص حفظ حریم خصوصی، نظارت و حفاظت از داده‌ها، وابستگی و اعتیاد به هوش‌مصنوعی، جعل عمیق دست‌کاری‌های اجتماعی؛ دست‌کاری رفتار، عدم شفافیت سیستم‌های هوش‌مصنوعی، سوگیری، فقدان اعتماد کاربران، نشر اطلاعات نادرست، کمک به وقوع شورش‌ها و به خطر افتادن امنیت عمومی جوامع، حذف مشاغل رسانه‌ای؛ گویندگی خبر، نویسندگی و طراحی، انحصار قدرت اقتصادی، مناقشه بر سر مالکیت محصول رسانه‌ای، فقدان کیفیت داده، تسلط بر انسان‌ها، فقدان آزادی، تضعیف خلاقیت، از دست دادن مهارت، کاهش ارزش انسانی، فقدان ارزش‌گذاری اطلاعات. و.. ایجاد کند. یکی از راه‌های حفاظت‌های سازمانی در برابر خطرات هوش‌مصنوعی، اخلاق هوش‌مصنوعی است و ضروری است برای آنها راهکارهایی در نظر گرفته و به‌نوعی هوش‌مصنوعی در صنعت رسانه مدیریت شود تا از بروز اتلاف منابع و آسیب‌های جبران‌ناپذیر پیشگیری شود. قانون‌گذاری، حسابرسی اخلاقی، سواد رسانه‌های دیجیتال به عنوان راهکارهای مواجهه با چالش‌های اخلاقی هوش‌مصنوعی در صنعت رسانه در پژوهش حاضر مطرح شده اند.

چالش هاي اخلاق پژوهش در سایه ابزارهاي مبتنی بر هوش مصنوعی

در ادامه این نشست تخصصی مقاله: «چالش هاي اخلاق پژوهش در سایه ابزارهاي مبتنی بر هوش مصنوعی» نوشته سیدمحمدعلی مرتضوی شاهرودی با همراهی دکتر عیسی زارعی مدیر پژوهش دانشگاه صداوسیما ارائه شد.

در این مقاله پس از بررسی ابزارهای هوش مصنوعی و ابزارهای مختلف آن به چالش های این ابزار در روند پژوهش پرداخته و از مواجهه اخلاقی با آن ها سخن گفته شده است.

در یافته ها و نتایج مواردی مانند صداقت و امانت‌داری، بی‌طرفی و حقیقت‌جویی، قانون‌مداری و خودسامانی، ستفاده صحیح از داده ها، مسئولیت پذیری، حریم خصوصی، شفافیت، پیش‌داوری در نتایج به عنوان اصول اخلاقی مواجهه با هوش مصنوعی در پژوهش نام برده شده است.

چکیده این مقاله به شرح ذیل است:

اخلاق پژوهش به رعایت مجموعه‌ای از اصول و قواعد اخلاقی که در فرآیند تدوین و انتشار یافته‌های علمی اشاره دارد گفته می‌‌شود. این اصول شامل اخلاق علمی که به معنای داشتن دانش کافی در حوزه تحقیقاتی و استفاده از منابعی است که محقق واقعاً مطالعه کرده باشد، رعایت استنادها و سپاسگزاری ازکسانی است که در پژوهش مشارکت داشته‌اند، می‌باشد. با این حال، محققان در عرصه پژوهش، همواره درگیر چالش‌های اخلاقی متنوعی از جمله سرقت ادبی، سوء‌استفاده از داده‌ها، حفظ حریم خصوصی، و نیاز به پاسخگویی و شفافیت بوده‌اند. این چالش‌ها نیازمند توجه و راهکارهای اخلاقی دقیقی هستند تا از کیفیت و نوآوری تحقیقات حفاظت شود و از سوء‌استفاده‌های احتمالی جلوگیری گردد. بی‌تردید ورود هوش مصنوعی به حوزه پژوهش و دسترسی افراد به ابزارهای مبتنی بر هوش مصنوعی، این چالش‌ها را دوچندان نموده است. با توجه به حجم عظیم داده‌هایی که ابزارهای مبتنی بر هوش مصنوعی می‌تواند پردازش کند، رعایت چارچوب‌ها و اخلاق پژوهش، اهمیت بسزایی دارد. مقاله حاضر در پی آن است که زمینه‌ها و ابعاد چالش‌های استفاده از ابزارهای مبتنی بر هوش مصنوعی در پژوهشهای علمی را بحث و بررسی نماید.

یافته‌های پژوهش نشان داد علی رغم اینکه هوش مصنوعی به عنوان یک فناوری پیشرفته، تأثیرات گسترده‌ای در حوزه‌های مختلف دارد و می‌تواند به پیشرفت علم و جامعه کمک کند، اما استفاده از ابزارهای مبتنی بر هوش مصنوعی در فرایندهای پژوهشی چالش هایی به لحاظ اخلاقی در حوزه هایی همچون صداقت و امانت‌داری، بی‌طرفی و حقیقت‌جویی، قانون‌مداری و خودسامانی، استفاده صحیح از داده‌ها، مسئولیت‌پذیری، حریم خصوصی و شفافیت، پیش‌داوری در نتایج و کپی‌رایت ایجاد خواهد کرد. با این حال، به نظر می‌رسد با افزایش حساسیت پژوهشگران و برنامه‌نویسان هوش مصنوعی در خصوص ابعاد مختلف اخلاق پژوهش و نیز با تولید نرم‌افزارهایی با قبلیت شناسایی اعتبار و اصالت متون، می‌توان آسیب‌های ناشی از سوءاستفاده‌های احتمالی را کم نمود.

تأملّی در بابِ هوش مصنوعی و ارتقای قضاوت اخلاقی؛ واکاویِ چالش‌ها و فرصت‌ها

آخرین مقاله این نشست نیز با عنوان «تأملّی در بابِ هوش مصنوعی و ارتقای قضاوت اخلاقی؛ واکاویِ چالش‌ها و فرصت‌ها» نوشته رضا جعفری دانشجوی دکتری توسط وی ارائه شد.

این مقاله نیز به چالش های هوش مصنوعی از منظر اخلاق پرداخته و با تشریح عملکرد هوش مصنوعی، تشریح انواع آن به چالش های آن پرداخته است.

چکیده این مقاله به شما تقدیم می شود:

با گسترش روزافزون هوش مصنوعی در زندگی بشر، بررسی ابعاد اخلاقی این فناوری نوین، به‌ویژه در حوزه قضاوت اخلاقی، اهمیتی دوچندان یافته است. قضاوت اخلاقی فرایندی پیچیده برای تعیین درستی یا نادرستی یک عمل یا تصمیم بر اساس معیارهای اخلاقی است. این فرایند نقشی حیاتی در زندگی فردی و اجتماعی ایفا می‌کند و به ما در اتخاذ تصمیمات درست و اخلاقی یاری می‌رساند. این پژوهش به بررسی عمیق مسائل و چالش‌های مرتبط با هوش مصنوعی و قضاوت اخلاقی می‌پردازد و به دنبال پاسخ به این پرسش اساسی است که هوش مصنوعی چگونه می‌تواند در فرایند قضاوت اخلاقی انسان ایفای نقش کند. این پژوهش با رویکردی تحلیلی – توصیفی و با استفاده از روش کتابخانه‌ای به بررسی منابع و ادبیات موجود در زمینه هوش مصنوعی، اخلاق و قضاوت اخلاقی می‌پردازد. هوش مصنوعی با استفاده از الگوریتم‌های پیچیده و یادگیری ماشین، قادر به پردازش اطلاعات و تصمیم‌گیری در زمینه‌های مختلف است. به‌کارگیری هوش مصنوعی در قضاوت اخلاقی مزایایی مانند افزایش دقت، سرعت و بی‌طرفی را به همراه دارد. بااین‌وجود، چالش‌های متعددی در این زمینه وجود دارد، از جمله فقدان درک ظرافت‌های اخلاقی، تعصب و فقدان خلاقیت و ابتکار. واگذاری کامل قضاوت اخلاقی به هوش مصنوعی در حال حاضر امری غیرقابل‌اعتماد است. هوش مصنوعی می‌تواند به‌عنوان ابزاری برای کمک به انسان در فرایند قضاوت اخلاقی مورداستفاده قرار گیرد، اما اتخاذ تصمیمات نهایی باید بر عهده انسان باشد.

source