omdebegirbanner

می توان ژنراتورهای جعلی چهره مصنوعی را بازسازی کرد تا چهره واقعی آنها را آموزش دهد

[ad_1]

کوتتس می گوید ، با این حال ، فرض بر این است که می توانید بر داده های آموزشی کنترل داشته باشید. او و همکارانش در انویدیا روش دیگری را برای افشای اطلاعات خصوصی ، از جمله تصاویر چهره ها و سایر اشیا ، داده های پزشکی و غیره ، بدون نیاز به دسترسی به داده های آموزشی ارائه کرده اند.

نوشته مرتبط: راز فاش شده برای شرط بندی کشف شد

در عوض ، آنها الگوریتمی را توسعه داده اند که می تواند داده های نشان داده شده توسط مدل آموزش دیده را با تغییر مسیرهایی که مدل در حین پردازش آن داده است ، دوباره ایجاد کند. از یک شبکه آموزش دیده برای تشخیص تصویر استفاده کنید: برای شناسایی آنچه در تصویر است ، شبکه آن را از طریق یک سری لایه های نورون های مصنوعی عبور می دهد. هر لایه سطوح مختلفی از اطلاعات را ترسیم می کند ، از لبه ها تا اشکال تا ویژگی های قابل تشخیص.

تیم کاوتس دریافتند که می توانند در وسط این مراحل یک مدل را قطع کرده و جهت آن را معکوس کرده و تصاویر ورودی را از داده های داخلی مدل بازآفرینی کنند. آنها این تکنیک را بر روی مدل های مختلف رایج تشخیص تصویر و GAN ها آزمایش کردند. در یک آزمایش ، آنها نشان دادند که می توانند تصاویر را از Imagine ، یکی از شناخته شده ترین مجموعه داده های تشخیص تصویر ، به طور دقیق بازتولید کنند.

تصاویر در ImageNet (بالا) با سرگرمی تصاویر ایجاد شده با عقب بردن مدل آموزش داده شده در ImageNet

NVIDIA

مانند آثار وبستر ، تصاویر بازآفرینی شده بسیار شبیه تصاویر واقعی هستند. کوتس می گوید: “ما از کیفیت شگفت زده شدیم.”

محققان معتقدند که این نوع حمله فقط خیالی نیست. تلفن های هوشمند و دیگر دستگاه های کوچک شروع به استفاده بیشتر از هوش مصنوعی کرده اند. به دلیل کمبود باتری و حافظه ، گاهی اوقات مدلها فقط روی دستگاه نیمه پردازش می شوند و برای آخرین خرابی رایانه به ابر ارسال می شوند که محاسبه تقسیم نامیده می شود. کوتس می گوید ، اکثر محققان تصور می کنند که محاسبه تقسیم اطلاعات خصوصی را در تلفن شخص نشان نمی دهد زیرا فقط مدل به اشتراک گذاشته شده است. اما حمله او نشان می دهد که اینطور نیست.

کائوتس و همکارانش اکنون در حال یافتن راهی برای جلوگیری از نشت اطلاعات خصوصی مدل ها هستند. او می گوید ما می خواستیم خطرات را درک کنیم تا بتوانیم ناامنی را کاهش دهیم.

اگرچه آنها از تکنیک های بسیار متفاوتی استفاده می کنند ، اما او فکر می کند که کار او و وبستر مکمل یکدیگر هستند. تیم وبستر نشان داد که داده های خصوصی را می توان در خروجی یک مدل یافت. تیم کائوتز نشان داد که داده های خصوصی را می توان با معکوس کردن ، ایجاد مجدد ورودی نشان داد. کوتس می گوید: “برای درک بهتر نحوه جلوگیری از حملات ، بررسی هر دو جهت مهم است.”

[ad_2]

Adrienne Daniel

قهوه‌کار بسیار جذاب. دانشجو. محقق سفر. بت نوجوان آینده.

تماس با ما