این برچسب‌ها می‌توانند هوش مصنوعی را در تشخیص اشیا فریب دهند!

دانشمندان حوزه کامپیوتر برای مدت زیادی مشغول توسعه تصاویر خاصی بوده‌اند که چشم‌های هوش مصنوعی را فرپب می‌دهد. این تصاویر و طرح‌ها که تحت عنوان «تصاویر محرمانه» شناخته می‌شوند از ضعف‌های شیوه‌ای که کامپیوترها به کمک آن دنیا را می‌بینند استفاده می‌کنند تا حضور چیزهایی که وجود ندارد را به آن‌ها القا کنند. در واقع اگر در آینده خواستید سیستم‌های دید هوش مصنوعی را گول بزنید، ممکن است استیکرهای این‌چنین به شما کمک کنند.

0

از این تصاویر می‌توانید به عنوان توهمات بصری یاد کنید که هوش مصنوعی را هدف گرفته‌اند و به این ترتیب می‌توان به طور مثال آن‌ها را درون شیشه قرارداد تا سیستم‌های شناسایی چهره را گول بزنند یا آن‌ها را روی اشیاء فیزیکی چاپ کرد و حالا محققان گوگل از آن‌ها استیکر ساخته‌اند.

ماه گذشته مقاله‌ای در خصوص شیوه تولید آن‌ها چاپ شد و با اینکه این کار یک پیشرفت انقلابی محسوب نمی‌شود، قدم درستی به سمت جلو است. همان‌طور که این تصاویر محرمانه را می‌توان در خانه هم چاپ کرد (حتی خودتان هم می‌توانید این کار را انجام دهید)، به طرز قابل‌توجهی قابل‌انعطاف هم هستند.

برخلاف دیگر حمله‌های محرمانه، لازم نیست که نسبت به تصویری که می‌خواهند وجودش را نفی کنند تغییر داده شوند. همچنین اهمیتی ندارد که در کدام نقطه از دامنه دید هوش مصنوعی قرار بگیرند. ویدئوی طرز کار آن در عمل را می‌توانید در پایین ببینید. در این مورد استفاده، استیکر باعث می‌شود که هوش مصنوعی فکر کند به‌جای موز یک تستر را می‌بیند:

 

همان‌طور که محققان می‌نویسند، استیکر به حمله‌کنندگان اجازه می‌دهد که بدون داشتن هرگونه اطلاعی از شرایط نوردهی، زاویه دوربین، نوع موجودیتی که به آن حمله می‌کنند یا حتی دیگر اشیاء حاضر درصحنه به هوش مصنوعی حمله فیزیکی کنند. پس بعدازاینکه چنین تصویری ایجاد شد، می‌توان آن‌ها را در اینترنت پخش کرد تا حمله‌کنندگان از آن‌ها پرینت گرفته و مورداستفاده قرارشان دهند.

به همین علت است که محققان هوش مصنوعی نگران چنین متدهایی هستند چراکه ممکن است برای حمله به سیستم‌هایی نظیر خودروهای بدون نیاز به راننده استفاده شوند. استیکر کوچکی را تصور کنید که با چسبانده شدن به گوشه راه باعث می‌شود که خودروی سدان هوشمند شما فکر کند یک علامت توقف را دیده است؛ یا استیکر دیگری که از شناسایی شما توسط سیستم‌های نظارت و مراقبت جلوگیری می‌کند.

محققانمعتقدند حتی اگر انسان‌ها بتوانند به این استیکرها توجه کنند، ممکن است هدف پشت آن‌ها را ندانند و فکر کنند که نوعی از هنر و زیبایی محسوب می‌شود. البته فعلاً لازم نیست که نگران حملات این‌چنین باشیم. بااینکه «تصاویر محرمانه» می‌توانند به طرز نگران‌کننده‌ای مؤثر واقع شوند، یک حقه جادویی نیستند که همیشه بر تمام سیستم‌های هوش مصنوعی تأثیر داشته باشند.

پچ‌های شبیه به استیکر گوگل برای ساخته‌شدن به زمان و تلاش نیاز دارند و در بیشتر موقع سازنده باید به کد سیستم‌های بینایی که آن را هدف می‌گیرد نیز دسترسی داشته باشد. مشکلی که تحقیقات این‌چنین سعی در نشان دادنشان دارند، این است که این حملات به‌مرورزمان انعطاف‌پذیرتر و مؤثرتر می‌شوند. شاید این استیکرها تنها یک شروع باشند.

منبع theverge
شاید بخوای اینا رو هم بخونی:

نوشتن دیدگاه

آدرس ایمیل شما منتشر نخواهد شد.

دیدگاه شما پس از بررسی توسط تحریریه منتشر خواهد شد. در صورتی که در بخش نظرات سوالی پرسیده‌اید اگر ما دانش کافی از پاسخ آن داشتیم حتماً پاسخگوی شما خواهیم بود در غیر این صورت تنها به امید دریافت پاسخ مناسب از دیگران آن را منتشر خواهیم کرد.