شنبه, ۱۷ خرداد , ۱۴۰۴ Saturday, 7 June , 2025 ساعت تعداد کل نوشته ها : 28703 تعداد نوشته های امروز : 238 تعداد اعضا : 24 تعداد دیدگاهها : 0×

اخبار روز:

هوش مصنوعی، برگ برنده‌ی سامسونگ در گلکسی اس25 Edge / چرا خبری از باتری سیلیکون-کربنی نیست؟ آمریکا با این شرط ایران موافقت می کند علی مطهری: می توان الهه مظلوم را شهید نامید وزارت خارجه آمریکا: زمان برای ایران رو به پایان است پیکسل ۶a باز هم در اثر گرمای شدید باتری منفجر شد ترامپ: اولویت من چین، روسیه و ایران است نه ایلان ماسک زمان وعده صادق ۳ نزدیک است غیرمنتظره از بابک زنجانی؛ بازاریابی تاکسی اینترنتی در میان اخبار قتل الهه‌حسین‌نژاد ادعای یک نماینده مجلس درباره سیاست‌های هسته‌ای دولت روحانی واکنش سخنگوی دولت به پایان خوش پرونده دو دختر گمشده بزرگ‌ترین نشت اطلاعاتی تاریخ؛ بیش از ۴ میلیارد رکورد از داده‌های کاربران لو رفت کار این دو دلداده بالا گرفت: ترامپ ایلان ماسک را تهدید کرد! دستیابی ایران به اطلاعات راهبردی اسرائیل، رئیس موساد برکنار می‌شود؟ مدنی‌زاده زیر ذره‌بین مجلس/ نامه معرفی مدنی‌زاده فردا اعلام وصول می‌شود پزشکیان: ایران آماده میانجیگری برای صلح بین پاکستان و هند است عقب‌نشینی ماسک از ادعای جنجالی علیه ترامپ

باید ضمن مقابله با ماشینی شدن جامعه انسانی از هوش مصنوعی بهره برد
  • 17 اردیبهشت 1404 ساعت: ۱۲:۱۲
  • شناسه : 60520
    بازدید 6
    0

    حجت الاسلام حمید شهریاری دبیرکل مجمع جهانی تقریب مذاهب اسلامی در سخنرانی خود در مجمع بین‌المللی فقه اسلامی قطر بر ضرورت تحلیل ساختاری آسیب‌های هوش مصنوعی تاکید کرد.

    ارسال توسط :
    پ
    پ

    به گزارش خبرگزاری مهر، حجت الاسلام حمید شهریاری دبیرکل مجمع که به منظور شرکت در بیست و ششمین مجمع فقه اسلامی به قطر سفر کرده است، با بیان مطالب و ملاحظاتی درباره ی سخنرانی‌های حاضران در خصوص احکام هوش مصنوعی و ضوابط و اخلاقیات آن با تاکید بر ضرورت طبقه‌بندی ساختاری در تحلیل آسیب‌های هوش مصنوعی گفت: فهرست آسیب‌های هوش مصنوعی نیازمند چارچوبی منطقی و ساختاری است که ابعاد فنی، اخلاقی، اجتماعی، اقتصادی و اعتقادی را دربر گیرد. بر این اساس، پیشنهاد می‌شود این آسیب‌ها در پنج سطح بُعد حقوقی فقهی، بُعد امنیتی سیاسی، بُعد فنی سیستمی، بُعد اقتصادی و بُعد اجتماعی فرهنگی طبقه‌بندی شوند.

    وی افزود: صرفِ ذکر آسیب‌ها گرچه ضروری است، اما کافی نیست؛ بلکه باید به‌صورت گسترده‌تری تهدیدات وجودی و فلسفی، به‌ویژه در سطح آینده‌پژوهانه، بیان گردد و با شواهد واقعی و مصادیق عینی مستند شود. از جمله این تهدیدات می‌توان به سناریوهای مربوط به فراهوش مصنوعی (Superintelligence)، فقدان امکان کنترل بلندمدت بر سامانه‌های هوشمند مستقل و واگذاری تصمیمات سرنوشت‌ساز به سامانه‌های بی‌مسئولیت و حکومت‌های فاقد مسئولیت‌پذیری اشاره کرد.

    حجت الاسلام حمید شهریاری گفت: همچنین باید نسبت به کاربردهای فعلی این فناوری نیز حساسیت بیشتری نشان داد. سلاح هوشمندی که در ترور شهید یحیی السنوار و شهید اسماعیل هنیه به کار رفت، باید در این کنفرانس به‌طور جدی پیگیری شود و اقدامات رژیم صهیونیستی در این زمینه محکوم گردد. این رژیم غاصب دارای سلاح‌های هسته‌ای، سلاح‌های هوشمند و سلاح‌های شیمیایی است، و بر عهده مجامع فقهی است که حرمت به‌کارگیری این سلاح‌ها را تبیین نمایند. این رژیم غاصب با این کاربردها، امنیت جهانی را به طور جدی به خطر می‌اندازد و صلح عادلانه را مخدوش می‌سازد و کرامت انسانی را پایمال می‌کند.

    دبیرکل مجمع خاطرنشان کرد: بهره‌گیری از منابع بین‌المللی معتبر برای شناخت موضوع و درک ابعاد آن ضرورت است. از جمله این منابع، می‌توان به سند IEEE درباره اخلاق هوش مصنوعی (سال ۲۰۱۹ / هزار و نهصد و نوزده میلادی)، گزارش یونسکو در موضوع اخلاق هوش مصنوعی (سال ۲۰۲۱ / هزار و نهصد و بیست و یک میلادی) که استاد دکتر یاسر عجیل النشمی نیز در سخنان خود به آن اشاره کردند و قانون اتحادیه اروپا در زمینه هوش مصنوعی اشاره کرد که این منابع چارچوب‌هایی دقیق و قابل مقایسه برای ارزیابی آسیب‌ها و خطرات فراهم می‌کنند.

    وی در پایان اتخاذ رویکرد تحلیلی و مسأله‌محور به‌جای صرفاً رویکرد خطابی و هشداردهنده را ضروری دانشت و افزود: استفاده از تعابیری همچون: «هوش مصنوعی وسیله‌ای برای کشتار، فریب و تدلیس است» بیشتر جنبه هشداردهنده دارد تا تحلیلی. چنین زبانی ممکن است برای مخاطبان علمی یا بین‌المللی قانع‌کننده نباشد و نیازمند بازنویسی در چارچوب تحلیل‌های نهادی و روش‌مند باشد. همچنین، با اینکه اشاره به مفاهیمی همچون تبعیض الگوریتمی، فقدان شفافیت و ضعف مسئولیت‌پذیری قابل تقدیر است، اما کافی نیست؛ بلکه باید به تحلیل دقیق سازوکارهای فنی پشت این آسیب‌ها پرداخت، مانند: ساختار شبکه‌های عصبی، یادگیری ماشین و ماهیت داده‌های مورد استفاده در آموزش و کلان‌داده‌ها. در نهایت تمام این موارد باید به گونه‌ای بررسی شود که کرامت انسانی حفظ گردد و از ماشینی شدن جامعه انسانی جلوگیری به‌عمل آید.

    ثبت دیدگاه

    • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
    • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
    • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.