فاش‌شدن راز پنهان هوش مصنوعی؛ تشخیص سرطان تحت تأثیر نژاد و جنسیت بیمار

محققان متوجه شده‌اند مدل‌های هوش مصنوعی که برای تشخیص سرطان از روی اسلایدهای آسیب‌شناسی (پاتولوژی) طراحی شده‌اند، به طور پنهانی در حال یادگیری اطلاعات دموگرافیک (مانند نژاد، سن و جنسیت) بیمار هستند. این «دانش ناخواسته» باعث شده تا دقت تشخیص برای برخی گروه‌ها کمتر از بقیه باشد.

فاش‌شدن راز پنهان هوش مصنوعی؛ تشخیص سرطان تحت تأثیر نژاد و جنسیت بیمار

برخلاف پزشکان انسان که با دیدن یک اسلاید بافت‌شناسی فقط به دنبال نشانه‌های بیماری هستند و نمی‌توانند سن یا نژاد بیمار را حدس بزنند، هوش مصنوعی سیگنال‌های بیولوژیکی بسیار ظریفی را شناسایی می‌کند که به ویژگی‌های فردی بیمار مرتبط است.

این مطالعه بر روی ۴ مدل رایج هوش مصنوعی و بیش از ۲۸,۰۰۰ تصویر بافت‌شناسی انجام شد.

محققان دریافتند که در ۲۹ درصد از وظایف تشخیصی، تفاوت دقت (تبعیض) بین گروه‌های مختلف وجود دارد.

برای مثال، مدل‌ها در تشخیص دقیق زیرنوع‌های سرطان ریه در بیماران سیاه‌پوست و مردان، و همچنین سرطان سینه در بیماران جوان‌تر دچار مشکل بودند.

چرا این تبعیض رخ می‌دهد؟

۱. داده‌های نابرابر: دسترسی به نمونه‌های بافتی برخی گروه‌ها آسان‌تر است، در نتیجه هوش مصنوعی روی داده‌های یک گروه خاص (مثلاً سفیدپوستان) بیشتر تمرین کرده و در مورد بقیه ضعیف‌تر عمل می‌کند.

۲. تفاوت در میزان شیوع: برخی سرطان‌ها در نژادها یا سنین خاص شایع‌ترند و هوش مصنوعی یاد می‌گیرد که برای آن گروه‌ها دقیق‌تر عمل کند.

۳. میان‌برهای ژنتیکی: هوش مصنوعی تفاوت‌های مولکولی ظریف بین نژادها یا جنسیت‌ها را شناسایی کرده و به جای تمرکز بر خود بیماری، از این تفاوت‌ها به عنوان «میان‌بر» برای تشخیص استفاده می‌کند که در نهایت منجر به خطا در گروه‌های اقلیت می‌شود.

محققان برای حل این مشکل، سیستمی به نام فیر-پَث را ابداع کردند. این روش بر پایه تکنیکی به نام «یادگیری مقابله‌ای» استوار است. این سیستم به هوش مصنوعی آموزش می‌دهد که فقط بر روی تفاوت‌های بین «انواع سرطان» تمرکز کند و تفاوت‌های مربوط به «ویژگی‌های فردی» (دموگرافیک) را نادیده بگیرد.

استفاده از این روش باعث شد شکاف عملکردی و تبعیض در مدل‌ها تا ۸۸ درصد کاهش یابد، بدون اینکه نیاز به جمع‌آوری مجدد داده‌های کلان باشد.

این تحقیق ثابت کرد که حتی اگر نام و مشخصات بیمار را از سیستم حذف کنیم، هوش مصنوعی باز هم می‌تواند آن‌ها را حدس بزند. بنابراین، برای داشتن یک درمان عادلانه، باید مدل‌ها را طوری تربیت کرد که عمداً نسبت به این ویژگی‌ها «نابینا» شوند.

منبع: شفقنا
شبکه‌های اجتماعی
دیدگاهتان را بنویسید