[ad_1]
هوش مصنوعی و یادگیری ماشین (AI و ML) فناوریهای کلیدی هستند که به سازمانها کمک میکنند تا راههای جدیدی برای افزایش فروش، کاهش هزینهها، سادهسازی فرآیندهای کسبوکار و درک بهتر مشتریان خود ایجاد کنند. AWS با ارائه محاسبات قدرتمند، شبکههای پرسرعت و گزینههای ذخیرهسازی با کارایی بالا مقیاسپذیر برای مطابقت با خواستههای هر پروژه یادگیری ماشینی، به تسریع وابستگیهای AI/ML خود کمک میکند. این مانع دسترسی سازمانهایی را کاهش میدهد که به دنبال استفاده از ابر برای مقیاسبندی برنامههای ML خود هستند.
توسعه دهندگان و دانشمندان داده از مرزهای فناوری عبور می کنند و یادگیری عمیق را اتخاذ می کنند، شکلی از یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی. این مدلهای یادگیری عمیق بزرگتر و پیچیدهتر هستند و هزینه اجرای زیرساختهای اساسی برای آموزش و استقرار این مدلها را افزایش میدهند.
برای کمک به مشتریان در سرعت بخشیدن به تبدیل AI/ML خود، AWS در حال توسعه تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که توسط AWS برای پیشبینی کمترین هزینه یادگیری ماشین در فضای ابری توسعه یافته است. در واقع، نمونههای آمازون EC2 Inf1، که توسط Inferentia ارائه میشوند، 2.3 برابر عملکرد بالاتر و 70 درصد هزینه کمتر برای تخمینهای یادگیری ماشین نسبت به نمونههای EC2 مبتنی بر GPU نسل فعلی ارائه میدهند. AWS Trainium دومین تراشه یادگیری ماشینی AWS است که برای آموزش مدلهای یادگیری عمیق طراحی شده است و در اواخر سال 2021 در دسترس خواهد بود.
مشتریان در سراسر صنعت برنامه های کاربردی ML خود را در محصول Infernia به کار گرفته اند و شاهد بهبود عملکرد و کاهش هزینه قابل توجهی بوده اند. به عنوان مثال، پلت فرم پشتیبانی مشتری AirBnB یک تجربه خدماتی هوشمند، مقیاسپذیر و استثنایی را برای میلیونها جامعه میزبان و مهمان در سراسر جهان ممکن میسازد. از نمونههای EC2 Inf1 مبتنی بر Inferentia برای استقرار مدلهای پردازش زبان طبیعی (NLP) استفاده میکند که از چتباتهای آن پشتیبانی میکنند. این امر منجر به عملکرد 2 برابر بهتر از نمونه های مبتنی بر GPU می شود.
با این نوآوریها در سیلیکون، AWS مشتریان را قادر میسازد تا به راحتی محصول مدل یادگیری عمیق خود را با راندمان بالا و هزینه بسیار کمتر پیادهسازی کنند.
یادگیری ماشین تغییر سرعت در زیرساخت های مبتنی بر ابر را به چالش می کشد
یادگیری ماشینی فرآیندی تکراری است که به تیمها نیاز دارد تا به سرعت برنامهها را بسازند، آموزش دهند، و برنامهها را بکار ببرند، و همچنین به طور مکرر آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیشبینی مدلها را افزایش دهند. سازمانها در حین استقرار مدلهای آموزشدیده در برنامههای تجاری خود، باید برنامههای خود را نیز اندازهگیری کنند تا به کاربران جدید در سراسر جهان خدمت کنند. برای اطمینان از بهترین تجربه کاربر، آنها باید بتوانند چندین درخواست را به طور همزمان با تأخیر در زمان واقعی مدیریت کنند.
موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه بندی تصویر، هوش مصنوعی محاوره ای و داده های سری زمانی به فناوری یادگیری عمیق متکی هستند. اندازه و پیچیدگی مدل های یادگیری عمیق به سرعت در حال افزایش است و طی چند سال از میلیون ها پارامتر به میلیاردها می رسد.
آموزش و استقرار این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. از آنجایی که سازمانها برنامههای کاربردی خود را برای ارائه نزدیکترین تجربه در زمان واقعی به کاربران و مشتریان خود مقیاس میدهند، هزینهها به سرعت میتواند گلوله برف باشد.
خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می تواند در اینجا کمک کند. رایانههای ابری دسترسی بر اساس تقاضا به شبکههای با کارایی بالا و ذخیرهسازی دادههای بزرگ را فراهم میکنند که بهطور یکپارچه با عملیات ML و خدمات هوش مصنوعی پیشرفته یکپارچه شده است، و سازمانها را قادر میسازد تا به سرعت فعالیتهای AI/ML خود را راهاندازی و مقیاسبندی کنند.
چگونه AWS به مشتریان کمک می کند تا تبدیل های AI / ML خود را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان، صرف نظر از تجربه یا اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تأخیر کم بهینه شده است و آن را برای استقرار در مقیاس تخمین ML ایده آل می کند.
هر تراشه AWS Infransia شامل چهار هسته عصبی است که یک موتور ضرب ماتریس آرایه سیستولیک با کارایی بالا را کار میکند، که عملیات یادگیری عمیق معمولی مانند Convolution و Transformer را سرعت میبخشد. NeuronCores به یک کش بزرگ روی تراشه مجهز شده است که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.
AWS از فریم ورک های پایه ML مانند Neuron، کیت توسعه نرم افزار برای Inferentia، TensorFlow و PyTorch پشتیبانی می کند. توسعه دهندگان می توانند به استفاده از چارچوب و ابزارهای توسعه چرخه حیاتی که می شناسند و دوست دارند ادامه دهند. برای اکثر مدل های آموزش دیده خود، آنها می توانند بدون نیاز به تغییر کد برنامه اضافی، یک خط کد را در استنتاج کامپایل و تغییر دهند.
نتیجه یک استقرار تخمینی با راندمان بالا است که به راحتی می توان آن را در حین کنترل هزینه ها محاسبه کرد.
Sprinklr، یک شرکت نرمافزار بهعنوان سرویس، یک پلتفرم مدیریت تجربه مشتری یکپارچه مبتنی بر هوش مصنوعی است که شرکتها را قادر میسازد تا بازخورد مشتری را در زمان واقعی در چندین کانال جمعآوری کنند و بینشهای عملی را ترجمه کنند. این منجر به حل و فصل مشکلات پیشگیرانه، توسعه محصول پیشرفته، بازاریابی محتوا و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدلهای بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.
بسیاری از سرویس های آمازون نیز مدل های یادگیری ماشینی خود را بر روی Inferentia مستقر می کنند.
آمازون از مدل Computer Vision ML برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده Prime Video استفاده می کند تا از تجربه مشاهده مطلوب برای اعضای Prime Video اطمینان حاصل کند. او مدلهای ML طبقهبندی تصویر خود را بر روی نمونههای EC2 Inf1 و بهبود 4 برابری در عملکرد و تا 40 درصد کاهش هزینه در مقایسه با نمونههای مبتنی بر GPU به کار برد.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که امروزه در بیش از 100 میلیون دستگاه در دسترس است. الکسا به مشتریان قول می دهد که همیشه باهوش تر، گفتگوی بیشتر، فعال تر و لذت بخش تر خواهد بود. برای تحقق این وعده، زمان پاسخگویی و هزینه زیرساخت یادگیری ماشین باید دائما بهبود یابد. با استقرار مدلهای متن به گفتار ML الکسا در نمونههای Inf1، توانست تاخیرهای تخمینی را تا ۲۵ درصد و هزینه به ازای برآورد را تا ۳۰ درصد کاهش دهد تا تجربه خدمات را برای میلیونها مشتری الکسا در هر ماه افزایش دهد.
ارائه قابلیتهای یادگیری ماشینی جدید در فضای ابری
از آنجایی که شرکتها برای آینده کسبوکار خود با فعال کردن بهترین محصولات و خدمات دیجیتال رقابت میکنند، هیچ سازمانی نمیتواند از استقرار پیشرفتهترین مدلهای یادگیری ماشینی برای کمک به آنها برای نوآوری در تجربیات مشتری خودداری کند. در طول چند سال گذشته، افزایش زیادی در کاربرد یادگیری ماشین برای موارد استفاده مختلف، از شخصیسازی و تخمینها تا کشف تقلب و تخمینهای زنجیره تامین وجود داشته است.
خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری قابلیتهای جدیدی را ارائه میکند که قبلاً امکانپذیر نبود، و آن را برای پزشکان غیرمتخصص بیشتر در دسترس قرار میدهد. به همین دلیل است که مشتریان AWS در حال حاضر از نمونههای آمازون EC2 Inf1 مبتنی بر Inferentia استفاده میکنند تا اطلاعاتی در مورد موتور توصیههای خود و رباتهای چت ارائه دهند و بینشهای عملی را از بازخورد مشتریان به دست آورند.
با گزینه های زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی می تواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشین را تا حد زیادی تطبیق دهد. با گسترش گستردهتر یادگیری ماشینی، سازمانها اکنون میتوانند تجربه مشتری و روش انجام تجارت خود را با یک زیرساخت یادگیری ماشینی مبتنی بر ابر مقرونبهصرفه و با کارایی بالا بهطور اساسی تغییر دهند.
درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS ایجاد شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.
[ad_2]