مدل های تشخیصی هوش مصنوعی را می توان با حملات سایبری فریب داد

شماره :
41350
آخرین به روزرسانی :
جمعه 1402/06/3 ساعت 21:53

مدل های تشخیصی هوش مصنوعی را می توان با حملات سایبری فریب داد

مدل‌های هوش مصنوعی تشخیصی (AI) در تحقیقات بالینی امیدوارکننده هستند، اما مطالعه جدیدی که توسط محققان دانشگاه پیتسبورگ انجام شد و در Nature Communications منتشر شد، نشان داد که حملات سایبری با استفاده از تصاویر پزشکی جعلی می‌تواند مدل‌های هوش مصنوعی را فریب دهد.

این مطالعه مفهوم «حملات خصمانه» را روشن کرد، که در آن بازیگران بد قصد دارند تصاویر یا سایر نقاط داده را تغییر دهند تا مدل‌های هوش مصنوعی نتیجه‌گیری نادرست بگیرند.

محققان با آموزش یک الگوریتم یادگیری عمیق شروع کردند که قادر بود موارد سرطانی و خوش خیم را با دقت بیش از 80 درصد شناسایی کند.

سپس، محققان یک "شبکه متخاصم مولد" (GAN) را توسعه دادند که یک برنامه کامپیوتری است که با قرار دادن نادرست مناطق سرطانی از تصاویر منفی یا مثبت برای اشتباه گرفتن مدل، تصاویر نادرست تولید می کند. مدل هوش مصنوعی توسط 69.1 درصد از تصاویر جعلی فریب خورده است.

مدل های هوش مصنوعی به طور فزاینده ای در بهبود مراقبت از سرطان و تشخیص زودهنگام مفید شده اند. اما مانند هر فناوری جدید، محققان باید خطرات سایبری را در نظر بگیرند.

تصاویر جعلی خاصی که هوش مصنوعی را فریب می دهند ممکن است به راحتی توسط رادیولوژیست ها شناسایی شوند. با این حال، بسیاری از تصاویر متخاصم در این مطالعه نه تنها مدل را فریب دادند، بلکه خوانندگان انسانی با تجربه را نیز فریب دادند.

محققان اکنون در حال بررسی "آموزش خصمانه" برای مدل هوش مصنوعی هستند، که شامل پیش تولید تصاویر متخاصم و آموزش این مدل است که تصاویر جعلی هستند.

مدل‌های هوش مصنوعی پس از اجرا به شدت خودکفا می‌شوند، اما هنوز هم بسیار مهم است که انسان بر ایمنی و امنیت چنین مدل‌هایی نظارت کند. با وجود شیوه‌های امنیتی کافی، هوش مصنوعی می‌تواند به بخشی از زیرساخت‌های مراقبت‌های بهداشتی در مقیاس بزرگ‌تر تبدیل شود.

202000930.368

X