هوش مصنوعی موجه چیست؟

در یک خط تولید، جایی که کارگران با تجهیزات سنگین و خطرناک برای تولید لوله‌های فولادی کار می‌کنند، مدیران شرکت، یک تیم از متخصصان یادگیری ماشین را استخدام می‌کنند تا یک مدل هوش مصنوعی توسعه دهند که به کارگران خط مقدم در اتخاذ تصمیمات ایمن کمک کند، به امید اینکه این مدل بتواند کسب‌وکارشان را با بهبود کارایی و ایمنی کارگران متحول کند. پس از یک فرآیند توسعه پرهزینه، مدیران مدل پیچیده و با دقت بالای خود را به خط تولید معرفی می‌کنند و انتظار دارند که شاهد بازگشت سرمایه خود باشند. اما به جای آن، با پذیرش بسیار محدود این مدل توسط کارگران مواجه می‌شوند. کجای کار اشتباه بوده است؟

این مثال فرضی، نقش حیاتی موجه بودن (Explainable) در دنیای هوش مصنوعی را نشان می‌دهد. در حالی که مدل در مثال ممکن است ایمن و دقیق بوده باشد، کاربران هدف، به سیستم هوش مصنوعی اعتماد نکردند زیرا نمی‌دانستند این سیستم چگونه تصمیم‌گیری می‌کند. کاربران نهایی حق دارند فرآیندهای تصمیم‌گیری تحت سیستم‌هایی که از آن‌ها انتظار می‌رود استفاده کنند، به ویژه در موقعیت‌های حیاتی را درک کنند.

هوش مصنوعی موجه (XAI) ابزاری قدرتمند برای پاسخ به سوالات حیاتی چگونه؟ و چرا؟ درباره سیستم‌های هوش مصنوعی است و می‌تواند برای پرداختن به نگرانی‌های اخلاقی و قانونی هم استفاده شود. در نتیجه، پژوهشگران هوش مصنوعی Explainable AI را به عنوان یک ویژگی ضروری از هوش مصنوعی قابل اعتماد دانسته اند و موجه بودن اخیراً توجه زیادی را به خود جلب کرده است. با این حال، با وجود علاقه روز افزون به پژوهش‌های Explainable AI و تقاضا برای موجه بودن در حوزه‌های مختلف، Explainable AI هنوز با محدودیت هایی روبرو است. در این مطلب از سایت نقطه، به شرحی از وضعیت کنونی Explainable AI، شامل نقاط قوت و ضعف این رویکرد می‌پردازیم.

مبانی هوش مصنوعی موجه 

با وجود گستردگی تحقیقات در زمینه موجه بودن، هنوز تعریف دقیقی پیرامون هوش مصنوعی موجه به طور کامل تثبیت نشده است.

به زبان ساده، هوش مصنوعی موجه به مجموعه‌ای از فرآیندها و روش‌ها اشاره دارد که به کاربران انسانی اجازه می‌دهد نتایج و خروجی‌های ایجاد شده توسط الگوریتم‌های یادگیری ماشین را درک کرده و به آن‌ها اعتماد کنند.

این تعریف طیف گسترده‌ای از انواع توضیحات و مخاطبان را در بر می‌گیرد و اذعان می‌دارد که تکنیک‌های موجه بودن می‌توانند به یک سیستم اعمال شوند، نه اینکه همیشه به طور ذاتی در آن‌ها گنجانده شوند.

رهبران و مدیران در حوزه‌های دانشگاهی، صنعتی و دولتی، فواید موجه بودن را مطالعه کرده‌ و الگوریتم‌هایی را برای پاسخگویی به طیف گسترده‌ای از زمینه‌ها توسعه داده‌اند.

به عنوان مثال، پژوهشگران در حوزه بهداشت و درمان، موجه بودن را به عنوان یک نیاز برای سیستم‌های مشاور تصمیم‌گیری بالینی هوش مصنوعی شناسایی کرده‌اند، زیرا توانایی تفسیر خروجی‌های سیستم تسهیل‌کننده تصمیم‌گیری، مشترک بین پزشکان و بیماران است و شفافیت مورد نیاز سیستم را فراهم می‌کند. در امور مالی، توضیحات سیستم‌های هوش مصنوعی برای برآورده کردن الزامات مقرراتی و تجهیز تحلیل‌گران به اطلاعات لازم برای بررسی تصمیمات پرخطر استفاده می‌شوند. بنابراین توضیحات می‌توانند بسته به زمینه و هدف، به شدت متفاوت باشند.

شکل زیر دو توضیح از وضعیت عکس بیمار را شرح می‌دهد، که یکی توسط پزشک متخصص نوشته شده و دیگری توسط یک مدل هوش مصنوعی. مدل یادگیری ماشین استفاده شده در این مدل، می‌تواند شکستگی‌ لگن را با استفاده از تصاویر پرتوی ایکس لگن جلویی تشخیص دهد و برای استفاده توسط پزشکان طراحی شده و به راحتی قابل درک و بررسی است.

مبانی هوش مصنوعی موجه 

شکل زیر تصویرسازی تکنیکی و تعاملی از لایه‌های یک شبکه عصبی را نشان می‌دهد. این ابزار متن‌باز به کاربران اجازه می‌دهد تا با معماری یک شبکه عصبی بازی کنند و مشاهده کنند که چگونه نورون‌های فردی در طول آموزش تغییر می‌کنند. توضیحات نقشه حرارتی از ساختارهای مدل یادگیری ماشین می‌توانند اطلاعات مهمی درباره عملکرد داخلی مدل‌های مبهم به متخصصان یادگیری ماشین ارائه دهند.

مبانی هوش مصنوعی موجه  2

شکل زیر یک نمودار تولید شده توسط ابزار What-If را نشان می‌دهد که رابطه بین دو نوع امتیاز استنتاجی را به تصویر می‌کشد. از طریق این تصویرسازی تعاملی، کاربران می‌توانند از توضیحات گرافیکی برای تحلیل عملکرد مدل در بخش‌های مختلف داده استفاده کنند، تعیین کنند که کدام ویژگی‌های ورودی، بیشترین تأثیر را بر تصمیمات مدل دارند و داده‌های خود را برای یافتن سوگیری‌ها یا نمونه‌های غیرعادی بررسی کنند. این نمودارها، علی‌رغم اینکه بیشتر توسط متخصصان یادگیری ماشین قابل فهم هستند، می‌توانند به اطاعات مهمی در مورد عملکرد و عدالت منجر شده و به سهامداران غیر فنی منتقل شوند.

مبانی هوش مصنوعی موجه 3

موجه بودن قصد دارد تا به سوالات سهامداران درباره فرآیندهای تصمیم‌گیری سیستم‌های هوش مصنوعی پاسخ دهد. توسعه‌دهندگان و متخصصان یادگیری ماشین می‌توانند از توضیحات برای اطمینان از برآورده شدن نیازهای پروژه مدل یادگیری ماشین و سیستم هوش مصنوعی در حین ساخت، اشکال‌زدایی و آزمایش استفاده کنند. توضیحات می‌توانند به مخاطبان غیر فنی، مانند کاربران نهایی، کمک کنند تا درک بهتری از نحوه کار سیستم‌های هوش مصنوعی داشته باشند و سوالات و نگرانی‌هایشان درباره رفتار سیستم را برطرف سازند. این شفافیت به ساخت اعتماد کمک می‌کند و از نظارت و قابلیت حسابرسی سیستم پشتیبانی می‌کند.

تکنیک‌های ایجاد هوش مصنوعی موجه در تمام مراحل چرخه عمر یادگیری ماشین توسعه یافته و اعمال شده‌اند. روش‌هایی برای تحلیل داده‌هایی که برای توسعه مدل‌ها استفاده می‌شوند (پیش‌مدلسازی)، گنجاندن قابلیت تفسیر در معماری یک سیستم (مدلسازی موجه)، و تولید توضیحات پس‌ازمدلسازی از رفتار سیستم وجود دارد.

چرا علاقه به هوش مصنوعی موجه در حال افزایش است؟

با پیشرفت هوش مصنوعی، مدل‌های مبهم و پیچیده‌تری برای حل مشکلات دشوار توسعه یافته و به کار گرفته شده‌اند. برخلاف بسیاری از مدل‌های قبلی، این مدل‌ها به دلیل ماهیت معماری‌شان، سخت‌تر قابل درک و نظارت هستند. وقتی چنین مدل‌هایی شکست می‌خورند یا به گونه‌ای که انتظار می‌رود رفتار نمی‌کنند، ممکن است برای توسعه‌دهندگان و کاربران نهایی دشوار باشد که دلیل آن را مشخص کنند یا روش‌هایی را برای حل مشکل تعیین کنند. Explainable AI به نیازهای نوظهور مهندسی هوش مصنوعی با ارائه دانش و بینش در مورد عملکرد داخلی این مدل‌های مبهم پاسخ می‌دهد. نظارت می‌تواند بهبودهای قابل توجهی در عملکرد به همراه داشته باشد. به عنوان مثال، یک مطالعه توسط IBM نشان می‌دهد که کاربران پلتفرم Explainable AI آن‌ها به افزایش ۱۵ تا ۳۰ درصدی در دقت مدل و افزایش سود ۴.۱ تا ۱۵.۶ میلیون دلاری دست یافته‌اند.

چرا علاقه به هوش مصنوعی موجه در حال افزایش است؟

شفافیت به دلیل نگرانی‌های اخلاقی پیرامون هوش مصنوعی، اهمیت زیادی دارد. به ویژه این که نقش سیستم‌های هوش مصنوعی در زندگی ما پر رنگ تر شده و تصمیمات آن‌ها می‌تواند پیامدهای قابل توجهی داشته باشد. از نظر تئوری، این سیستم‌ها می‌توانند به حذف تعصبات انسانی از فرآیندهای تصمیم‌گیری که به طور تاریخی مملو از پیش‌داوری هستند، مانند تعیین وثیقه یا ارزیابی صلاحیت وام‌های مسکن کمک کنند.

با این حال، علیرغم تلاش‌ برای حذف تبعیض نژاد از این فرآیندها از طریق هوش مصنوعی، سیستم‌های پیاده‌سازی شده به طور ناخواسته رفتارهای تبعیض‌آمیز را به دلیل طبیعت مغرض داده‌هایی که بر اساس آن‌ها آموزش دیده‌اند، حفظ کردند. با افزایش اتکا به سیستم‌های هوش مصنوعی برای تصمیم‌گیری‌های مهم در دنیای واقعی، ضروری است که این سیستم‌ها به‌طور کامل بررسی شده و با استفاده از اصول هوش مصنوعی مسئولانه (RAI) توسعه یابند.

توسعه الزامات قانونی برای پرداختن به نگرانی‌ها و تخلفات اخلاقی همچنان ادامه دارد. به عنوان مثال، مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) در سال ۲۰۱۶ اظهار می‌دارد که زمانی که افراد تحت تأثیر تصمیماتی قرار می‌گیرند که از طریق “پردازش خودکار” اتخاذ شده‌اند، حق دارند “اطلاعات معناداری درباره منطق مربوطه” داشته باشند. به همین ترتیب، قانون حفظ حریم خصوصی مصرف‌کننده کالیفرنیا (CCPA) در سال ۲۰۲۰ تصریح می‌کند که کاربران حق دارند درباره استنتاج‌هایی که سیستم‌های هوش مصنوعی در مورد آن‌ها انجام داده‌اند و داده‌هایی که برای آن استنتاج‌ها استفاده شده‌اند، بدانند. با افزایش تقاضای قانونی برای شفافیت، پژوهشگران و متخصصان، به پیش بردن Explainable AI برای تطابق با الزامات جدید می‌پردازند.

محدودیت‌های کنونی هوش مصنوعی موجه

یکی از موانعی که تحقیقات هوش مصنوعی موجه با آن مواجه است، عدم توافق بر سر تعاریف چندین اصطلاح کلیدی است. تعاریف دقیق هوش مصنوعی موجه در مقالات و زمینه‌های مختلف متفاوت است. برخی پژوهشگران اصطلاحات موجه بودن و قابل‌تفسیر بودن را به طور متناوب برای اشاره به مفهوم قابل فهم کردن مدل‌ها و خروجی‌های آن‌ها استفاده می‌کنند. دیگران تفاوت‌های مختلفی بین این اصطلاحات قائل هستند. به عنوان مثال، یک منبع دانشگاهی اظهار می‌کند که موجه بودن به توضیحات پیشین اشاره دارد، در حالی که قابل‌تفسیر بودن به توضیحات پسین اشاره دارد. تعاریف در حوزه هوش مصنوعی موجه باید تقویت و روشن شوند تا زبان مشترکی برای توصیف و تحقیق در موضوعات Explainable AI فراهم شود.

محدودیت‌های کنونی هوش مصنوعی موجه

به همین ترتیب، در حالی که مقالاتی که تکنیک‌های جدید Explainable AI را پیشنهاد می‌دهند فراوان هستند، راهنمایی‌های واقعی در مورد چگونگی انتخاب، پیاده‌سازی و آزمایش این توضیحات برای حمایت از نیازهای پروژه کم است. توضیحات نشان داده‌اند که درک سیستم‌های یادگیری ماشین را برای بسیاری از مخاطبان بهبود می‌بخشند، اما توانایی آن‌ها در ایجاد اعتماد در میان افرادی که متخصص هوش مصنوعی نیستند، مورد بحث قرار گرفته است. تحقیقات همچنان ادامه دارد که چگونه بهترین استفاده از موجه بودن برای ایجاد اعتماد در میان افراد غیر متخصص در هوش مصنوعی انجام شود؛ توضیحات تعاملی، از جمله توضیحات مبتنی بر سوال و جواب، امیدبخش به نظر می‌آیند!

پرسش‌های متداول

۱. هوش مصنوعی موجه چیست؟

هوش مصنوعی موجه به روش‌ها و تکنیک‌هایی در هوش مصنوعی اشاره دارد که فرآیندهای تصمیم‌گیری سیستم‌های هوش مصنوعی را شفاف، قابل فهم و قابل تفسیر برای انسان‌ها می‌سازد. XAI هدف دارد تا بینشی در مورد چگونگی تصمیم‌گیری مدل‌های هوش مصنوعی فراهم کند، به طوری که کاربران بتوانند به این سیستم‌ها اعتماد کرده و آنها را به طور مؤثر مدیریت کنند.

۲. چرا هوش مصنوعی موجه اهمیت دارد؟

هوش مصنوعی موجه از جنبه‌های مختلفی حیاتی است:
– اعتماد و مسئولیت‌پذیری: کاربران وقتی که بفهمند تصمیم‌گیری‌ها چگونه انجام می‌شود، بیشتر به سیستم‌های هوش مصنوعی اعتماد می‌کنند.
– مطابقت و مقررات: بسیاری از صنایع نیاز به انطباق با مقرراتی دارند که شفافیت در فرآیندهای تصمیم‌گیری را الزامی می‌کند.
– اشکال‌زدایی و بهبود: فهم رفتار مدل‌ها، به تشخیص مشکلات و بهبود عملکرد سیستم‌های هوش مصنوعی کمک می‌کند.
– ملاحظات اخلاقی: اطمینان از اینکه تصمیم‌های هوش مصنوعی عادلانه و بدون تعصب هستند، حیاتی است و موجه بودن کمک می‌کند تا تعصبات شناسایی و کاهش یابند.

۳. تفاوت هوش مصنوعی موجه با هوش مصنوعی سنتی چیست؟

مدل‌های سنتی هوش مصنوعی، به خصوص مدل‌های پیچیده مانند شبکه‌های عصبی عمیق، اغلب به عنوان “جعبه سیاه” عمل می‌کنند، به این معنی که فرآیندهای داخلی آنها شفاف نیست. اما هوش مصنوعی موجه، بر قابل تفسیر ساختن این مدل‌ها تمرکز دارد که با ارائه توضیحاتی برای پیش‌بینی‌ها یا تصمیم‌ها، اطلاعاتی در مورد فرآیندهای داخلی آنها ارائه می‌دهد.

۴. چه تکنیک‌هایی در هوش مصنوعی موجه استفاده می‌شود؟

چندین تکنیک برای دستیابی به موجه بودن در هوش مصنوعی مورد استفاده قرار می‌گیرند، از جمله:
– توضیحات مدل-آگنوستیک محلی قابل تفسیر (LIME): تکنیکی که پیش‌بینی‌های فردی را با تقریب مدل به صورت محلی با یک مدل قابل تفسیر توضیح می‌دهد.
– توضیحات افزایشی شاپلی (SHAP): روشی مبتنی بر نظریه بازی‌های همکارانه که خروجی هر مدل یادگیری ماشینی را توضیح می‌دهد.
– نقشه‌های برجستگی: توضیحات بصری که ویژگی‌ها یا نواحی مهم در داده‌های ورودی که تصمیم مدل را تحت تأثیر قرار می‌دهند، برجسته می‌کند.
– درخت‌های تصمیم: مدل‌های ساده و قابل تفسیر که توضیحات سلسله مراتبی و شفافی از تصمیم‌ها ارائه می‌دهند.

۵. هوش مصنوعی موجه با چه چالش‌هایی رو به رو است؟

برخی از چالش‌های کلیدی شامل موارد زیر می‌شوند:
– پیچیدگی در مقابل قابل تفسیر بودن: توازن بین پیچیدگی مدل‌ها و نیاز به قابل تفسیر بودن می‌تواند دشوار باشد.
– مقیاس‌پذیری: اطمینان از اینکه روش‌های توضیح‌پذیری برای داده‌ها و مدل‌های بزرگ و واقعی مقیاس‌پذیر و قابل استفاده هستند.
– دقت توضیحات: ارائه توضیحاتی که هم دقیق و هم برای کاربران معنادار باشند.
– نیازهای متنوع ذینفعان: ذینفعان مختلف (مثلاً دانشمندان داده، کاربران نهایی، ناظران) ممکن است نیاز به انواع مختلفی از توضیحات داشته باشند.

۶. هوش مصنوعی موجه در کدام صنایع اهمیت ویژه دارد؟

هوش مصنوعی موجه در صنایعی که تصمیم‌ها تأثیرات قابل توجهی بر افراد یا جامعه دارند، حیاتی است، از جمله:
– بهداشت و درمان: برای سیستم‌های تشخیصی و توصیه‌های درمانی.
– مالی: برای امتیازدهی اعتباری، تشخیص تقلب و تصمیمات سرمایه‌گذاری.
– حقوقی: در پیش‌بینی نتایج پرونده‌ها و ارزیابی‌های ریسک.
– خودروسازی: برای سیستم‌های رانندگی خودکار.
– دولت و بخش عمومی

نقطه
Logo