[ad_1]
در دو سال گذشته ، Facebook AI Research (FAIR) با 13 دانشگاه در سراسر جهان همکاری کرده است تا بزرگترین مجموعه داده های ویدئوهای اول شخص را ادغام کند-به طور خاص برای آموزش مدل های تشخیص تصویر با یادگیری عمیق. هوش مصنوعی آموزش داده شده بر روی مجموعه داده ها برای کنترل روبات های تعامل با مردم یا تفسیر تصاویر از طریق عینک هوشمند بهتر خواهد بود. کریستن گرومن از FAIR ، سرپرست این پروژه می گوید: “ماشین ها می توانند به ما در زندگی روزمره ما کمک کنند ، اگر آنها واقعاً جهان را از نگاه خود درک کنند.”
چنین فناوری می تواند از افرادی که در خانه به کمک احتیاج دارند پشتیبانی کند ، یا افراد را در کارهایی که یاد می گیرند انجام دهند راهنمایی کند. مایکل ریو ، محقق مغز Google در Ego4D و محقق بینایی رایانه ای در دانشگاه استونی بروک در نیویورک می گوید: “فیلم موجود در این مجموعه داده ها بسیار نزدیک به نحوه مشاهده انسان در جهان است.”
اما سوء استفاده های احتمالی آشکار و نگران کننده است. همانطور که توسط تحقیقات MIT Technology Review تأیید شد ، بودجه این تحقیق توسط غول رسانه های اجتماعی تأمین می شود ، که اخیراً در سنای آمریکا متهم به سودجویی شده است.
مدل کسب و کار فیس بوک و دیگر شرکت های بزرگ فناوری این است که تا آنجا که ممکن است داده ها را از رفتار آنلاین افراد استخراج کرده و به تبلیغ کنندگان بفروشند. هوش مصنوعی توصیف شده در این پروژه می تواند به رفتارهای آفلاین روزانه افراد ، آنچه در اطراف خانه شما وجود دارد ، از چه فعالیتهایی لذت می برید ، با چه کسانی وقت می گذرانید و کجا چشم شما معطل است – به درجه بی سابقه ای از اطلاعات شخصی برسد.
گریم می گوید: “حریم خصوصی کاری است که شما از دنیای تحقیقات جستجو خارج می کنید و آن را به عنوان یک محصول انجام می دهید.” “این اثر همچنین می تواند از این پروژه الهام گرفته شود.”
بزرگترین مجموعه داده های ویدئوهای اول شخص شامل 100 ساعت فیلم افراد در آشپزخانه است. مجموعه داده های Ego4D شامل فیلم هایی است که توسط 055 نفر در نه مکان مختلف در ایالات متحده 5 مکان مختلف ضبط شده است.
سن و سابقه شرکت کنندگان متفاوت بود. برخی برای مشاغل مورد علاقه خود مانند نانوا ، مکانیک ، نجار و غرفه داران منظره استخدام شدند.
مجموعه داده های قبلی معمولاً شامل چند ثانیه کلیپ های ویدئویی نیمه اسکریپت شده هستند. در Ego4D ، شرکت کنندگان تا 10 ساعت دوربین های سرپوش دار می پوشیدند و فیلم های اول شخص از فعالیت های نانوشته روزانه ، از جمله قدم زدن در خیابان ، خواندن ، شستن لباس ، خرید ، \u0628\u0627\u0632\u06cc با حیوانات خانگی ، \u0628\u0627\u0632\u06cc روی میز را ضبط می کردند. با افراد دیگر ارتباط برقرار کنید. برخی از فیلم ها شامل صدا ، داده های مربوط به محل دیدگاه شرکت کنندگان و دیدگاه های متعدد در یک صحنه است. ریو می گوید این اولین مجموعه داده در نوع خود است.
[ad_2]