دبیر ستاد راهبردی فناوریهای هوشمند حوزههای علمیه:
تدوین فقه هوش مصنوعی نیازمند فهم فلسفی و اخلاقی آن است
به گزارش روابط عمومی پژوهشگاه حوزه و دانشگاه، محمدرضا قاسمی، دبیر ستاد راهبردی فناوریهای هوشمند حوزههای علمیه، در نشست علمی «هوش مصنوعی در علوم انسانی اسلامی؛ فرصتها و تهدیدها» که امروز ۱۰ خردادماه در سالن حکمت پژوهشگاه حوزه و دانشگاه برگزار شد، درباره ابعاد راهبردی هوش مصنوعی، بیان کرد: از مقطعی که علوم کامپیوتر بهوجود آمد، تجربه هوش مصنوعی وجود داشت و پدیده جدیدی نیست، اما امروزه با پیشرفت تکنولوژی این پدیده بیشتر مورد توجه قرار میگیرد.
وی با اشاره به اینکه سه ابزار مورد نیاز برای تولد هوش مصنوعی دادههای متنی، صوتی، تصویری، زیرساخت پردازشها و پردازشگرهای اطلاعات و زبان برنامهنویسی و شناخت دادههاست، افزود: در عصر تکنولوژی همواره این فناوری رو به پیشرفت خواهد بود، بهطور مثال، امروزه پدیده چت جی پی تی داریم که با دادههایی که در اختیار دارد، پاسخگوی سؤالات مخاطبانش است.
قاسمی تصریح کرد: به هر میزانی که توسعه فناوری به معنای نیروی انسانی ماهر، دادهها، حجیم شدن دادهها و خوشهبندی دادهها رقم بخورد، هوش مصنوعی هم توسعه پیدا میکند. بنابراین، آینده هوش مصنوعی و میزان پیشرفت آن قابل پیشبینی نیست.
وی ادامه داد: برای آگاهی از نسبت ما با پدیده هوش مصنوعی باید نگاه از بالا به پایین به آن داشته باشیم و نباید به داشتن یک نگاه ابزاری صرف به پدیده هوش مصنوعی محدود شویم؛ درواقع نگاه صرفاً ابزارگرایانه به هوش مصنوعی برای انسان کافی نیست اگرچه فواید بسیاری دارد، اما دادههای بیشتری در هوش مصنوعی وجود دارد.
قاسمی با بیان اینکه مسئله آن است که قدرت ابزار هوش مصنوعی دراختیار ما قرار دارد یا دشمن؟ افزود: اگر گمان میکنیم که این تکنولوژی در اختیار ما قرار دارد باید از آن استفاده کنیم، بهطور مثال یکی از بحرانهای جدی در توسعه کاربردی هوش مصنوعی حفظ سرمایه انسانی است که به آن نیاز داریم اما کارهای مقدماتی در این عرصه انجام شده که کافی نیست.
دبیر ستاد راهبردی فناوریهای هوشمند حوزههای علمیه ادامه داد: در کشورهای مختلف، سرمایهگذاریهای سنگین، گسترده و خطرپذیر در حوزه هوش مصنوعی انجام دادند و از ایدهها حمایت میکنند، اما ما طبیعتاً در مسیر قانونگذاری و حفظ نیروی انسانی در حوزه هوش مصنوعی دارای مشکلات فراوانی هستیم.
وی بیان کرد: ما اگر میخواهیم سند اخلاقی و نظریات کلان در حوزه هوش مصنوعی داشته باشیم باید در این عرصه ورود جدی و فعال داشته باشیم و مواجهه ما با مخاطرات هوش مصنوعی، تولید دانش دینی در هوش مصنوعی، جستوجوی معنایی فقه و دین نیازمند کارهای اساسی است.
قاسمی با بیان اینکه تجربه مواجهه ما با علوم شناختی، تجربه خوبی نبود و کار اساسی انجام نشد، اظهار کرد: اگر به دنبال طراحی نظامات اجتماعی هستیم باید بدانیم که هوش مصنوعی چه مخاطراتی دارد و ما باید چگونه با آنان مواجه شویم در غیر این صورت، عقب میمانیم و تجربهای مشابه علوم شناختی برای ما رقم میخورد.
دبیر ستاد راهبردی فناوریهای هوشمند حوزههای علمیه با بیان اینکه مواجهه پژوهشگران علوم دینی با هوش مصنوعی باید چگونه باشد؟ تصریح کرد: در ابتدا باید بدانند مخاطرات این حوزه چیست و چگونه موضوعشناسی کنند و در هر مسئلهای سؤالات ساده و بنیادین در حوزه فقهی، دینی، فسلفی و اخلاقی پدید میآید که هوش مصنوعی بتواند پاسخگوی مردم باشد، بنابراین ما باید نسبت خود را با این موضوعات بدانیم.
وی بیان کرد: ورود به هر حوزهای در مطالعات میانرشتهای، بهطور مثال در حوزه هوش مصنوعی در عرصههای فقه و دین و علوم اجتماعی نیازمند موضوعشناسی است و اگر بخواهیم در این عرصه حضور فعال داشته باشیم، دو راهکار مقاومسازی در عرصه فنی یعنی پیشگامی، حرکت منطقی و بهموقع در حوزه فنی و نگاه از بالا به پایین به این پدیده پیشروی ماست، با انجام این دو راهکار میتوانیم امیدوار باشیم که بیگانگان برای ما سند هوش مصنوعی تدوین نکنند و در نهایت بتوانیم سند اخلاقی این حوزه را در ایران تدوین کنیم.
قاسمی درباره اقداماتی که از سوی ستاد راهبردی فناوریهای هوش مصنوعی حوزه علمیه انجام شده است، اظهار کرد: دبیرخانه هماندیشی مطالعات بنیادین هوش مصنوعی در ستاد راهبردی فناوریهای هوشمند حوزههای علمیه برپا شد و همچنین، همایش بینالمللی هوش مصنوعی، فرهنگ و علوم اسلامی با همکاری مرکز تحقیقات کامپیوتری علوم اسلامی نور سال آینده برگزار میشود، این همایش در امتداد همایش هوش مصنوعی در سال ۹۹ است و ابعاد فرهنگی و شناختی این پدیده مورد بررسی قرار میگیرد.
وی گفت: تقاطع مطالعات بنیادین هوش مصنوعی باید از سوی پژوهشگران علوم اسلامی، دینی و اجتماعی رقم بخورد، در واقع ما نمیتوانیم بدون فهم فلسفی، پیامدهای اخلاقی و اجتماعی هوش مصنوعی فقه آن را طراحی کنیم و پژوهشگران باید در این حوزه بیشتر فعال شوند.
نظر شما :