شنبه, ۱۷ خرداد , ۱۴۰۴ Saturday, 7 June , 2025 ساعت تعداد کل نوشته ها : 28719 تعداد نوشته های امروز : 238 تعداد اعضا : 24 تعداد دیدگاهها : 0×

اخبار روز:

دلجویی مالک از هواداران خشمگین استقلال زوج های جوان برای دریافت وام ازدواج امیدوار باشند چرا لایحه حمایت از زنان به قانون تبدیل نشد؟ صادق: قیمت بلیت پروازهای اربعین تعیین می‌شود تداوم بارش‌ها تا پایان هفته در بسیاری از نقاط کشور رئیس سازمان حمایت: احتکار خودرو با انبار کردن در پارکینگ فرقی ندارد شورای رقابت از اظهارنظر در مورد خودروی بورسی منع شد دشمن قدیمی بورس معرفی شد | پیش بینی مهم برای تمام سهامداران تنها راه نجات بازنشستگان بازگشت این بانک است تسهیلات ارزی بلعیده شد ؛ خبری از بازگشت نیست! حذف مالیات ارزش افزوده یک کالای وارداتی با بخشنامه گمرک سایۀ اجاره‌ای‌ها از سر اقتصاد ایران کم می‌شود توضیح دانشگاه علامه درباره ادعای بیرون‌کردن دانشجویان از مسجد دانشگاه بستر راه‌اندازی پایانه صادراتی دام زنده در کرمانشاه وجود دارد مهلت انتخاب رشته آزمون کارشناسی ارشد سال ۱۴۰۴ تا ۲۰ خرداد تمدید شد نظارت کامل دامپزشکی کرمانشاه بر ذبح دام‌های قربانی در عید قربان

جنبه ترسناک هوش‌ مصنوعی؛ با اموات حرف بزنید!
  • 20 اردیبهشت 1403 ساعت: ۲۲:۰۶
  • شناسه : 2926
    بازدید 16
    0

    دو جامعه شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کرده‌اند. آن‌ها بر این باورند که چت‌بات‌هایی که از افراد متوفی تقلید می‌کنند و گاهی اوقات ربات‌های مرده، ربات‌های‌غم‌انگیز یا روح‌ربات نامیده می‌شوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح می‌کنند. مثلاً چه […]

    پ
    پ

    دو جامعه شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کرده‌اند. آن‌ها بر این باورند که چت‌بات‌هایی که از افراد متوفی تقلید می‌کنند و گاهی اوقات ربات‌های مرده، ربات‌های‌غم‌انگیز یا روح‌ربات نامیده می‌شوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح می‌کنند.

    مثلاً چه کسی پس ازمرگ صاحب داده‌های یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روح‌ربات برای چه کاری می‌توان استفاده کرد؟ و چه کسی می‌تواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمی‌رسد چنین آینده‌ای داشته باشیم.

    با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر می‌رسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن ۲۸ ساله تصمیم می‌گیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمی‌دهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ می‌دهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوه‌اش حرف می‌زند، شروع به فروش وسایل خود می‌کند.

    به گفته کارشناسان، افراد ممکن است با چنین شبیه‌سازی‌هایی پیوندهای عاطفی قوی ایجاد کنند، اما آن‌ها باید توجه داشته باشند که در عین حال آسیب‌پذیرتر می‌شوند. بنابراین به نظر می‌رسد حتی تشریفات در روح‌ربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال ۲۰۱۸، برخی از اخلاق‌شناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفه‌ای شورای بین‌المللی موزه‌ها مطابقت دارد، که الزام می‌کند با بقایای انسان‌ها با احترام و کرامت انسانی رفتار شود.

    با این حال این دو اخلاق‌شناس بر این باورند که نمی‌توان این ربات‌ها را ممنوع کرد، اما می‌توان کاری کرد که با داده‌های افراد محترمانه رفتار کنند. همچنین نباید در فضاهایی عمومی استفاده شوند و فقط باید برای شخصیت‌های مهم تاریخی باشد.

    در سال ۲۰۲۲، فردی استدلال کرد که روح‌ربات‌ها را می‌توان به عنوان کمک‌های پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست می‌دهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد می‌تواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال می‌کنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به ربات‌هایی اشاره می‌کند که فقط برای پردازش غم و اندوه طراحی شده‌اند.

    در عوض، آنها معتقدند، این سیستم ها باید به طور معناداری شفاف‌سازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات می‌دهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این ربات‌ها وجو دارد. همچنین باید بدانیم که روح‌ربات چگونه غیر فعال می‌شود. به عنوان مثال، اگر فردی روح‌ربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روح‌ربات برای هنمیشه در زنگی فرد وجود داشته باشد؟

    بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.

    ثبت دیدگاه

    • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
    • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
    • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.