یادگیری ماشین در هوش مصنوعی چیست؟

ویدیو ماشین لرنینگ در 100 ثانیه

در دنیای هالیوود فیلم‌هایی ساخته می‌شود که برخی معتقدند روزی به حقیقت می‌پیوندد. داستان‌های تخیلی و غیر قابل‌باوری که وقوعشان بسیار دور از ذهن است.

یادگیری ماشین (Machine Learning) یکی از آن داستان‌هاست! حتماً هفتاد سال پیش هیچ‌کس فکر نمی‌کرد که یک ماشین بتواند جوک بسازد یا جمله‌ای اعتراضی را از زاویه دید طرف‌دار یک حزب سیاسی توییت کند. یادگیری ماشین انقلابی در تکنولوژی به وجود آورد.

یادگیری ماشین به کامپیوتر یاد می‌دهد که بدون برنامه‌نویسی صریح برای انجام یک کار چگونه آن کار را انجام دهد ، بلکه داده‌ها را به یک الگوریتم وارد می‌کند تا با تجربه ای که کسب می کند به طور تدریجی نتایج بهتری را به دست آورد، دقیقا مانند اتفاقاتی که در زندگی عادی خودمان رخ می دهد.

این اصطلاح در سال ۱۹۵۹ توسط آرتور ساموئل درآی بی ام زمانیکه در حال توسعه هوش مصنوعی ای بود که می‌توانست بازی چکرز را انجام دهد، ابداع شد. نیم قرن بعد، مدل‌های پیش‌بینی در بسیاری از محصولاتی که هر روز استفاده می‌کنیم، جایگزین شده‌اند که دو کار بنیادی انجام می‌دهند، یکی طبقه‌بندی داده‌ها مانند در خودروهای خودران، که ماشین ها را در جاده ها تشخیص دهند و یا آیا تشخیص اینکه بیمار سرطان دارد یا خیر و یا پیش‌بینی نتایجی که در آینده رخ می دهند مانند اینکه آیا سهام بالا خواهد رفت؟

و یا مثلا پیش بینی اینکه بعدا کدام ویدیوی یوتیوب را می‌خواهید تماشا کنید. مرحله اول در این فرآیند، به دست آوردن داده های خیلی زیاد و تمیز کردن داده‌هاست. هر چه داده‌ها وضوح بهتری نسبت به آن مسئله داشته باشند و مشکل را بهتر نشان دهند، نتایج بهتری به دست می‌آید. سپس الگوریتم باید سیگنال ها و ویژگی ها (فیچر) مفید را از داده‌ها استخراج کند. در این بین دانشمندان داده کاری به نام مهندسی ویژگی (feature engineering) انجام می‌دهند تا داده‌های خام را به ویژگی‌هایی تبدیل کنند که مسئله را واضح تر و بهتر نشان دهند.

مرحله بعدی جداسازی داده به مجموعه تست و مجموعه ترین است. داده‌های آموزشی یا ترین به یک الگوریتم آموزش می دهند تا یک مدل ساخته شود، سپس داده‌های آزمایشی یا تست برای اعتبارسنجی دقت یا خطا مدل استفاده می‌شوند. مرحله بعدی انتخاب الگوریتم است که ممکن است یک مدل آماری ساده مانند رگرسیون خطی یا لجستیک یا یک درخت تصمیم با وزن‌های مختلف برای ویژگی‌های داده باشد یا ممکن است با یک شبکه عصبی کانولوشنال که یک الگوریتم است که وزن‌های مختلف را به ویژگی‌ها اختصاص می‌دهد.

اما همچنین داده‌های ورودی را به صورت خودکار تبدیل می‌کند و ویژگی‌های اضافی ایجاد می‌کند و این بسیار مفید برای مجموعه داده‌هایی است که شامل چیزهایی مانند تصاویر یا پردازش زبان طبیعی هستند که در این نوع داده ها استخراج ویژگی ها به صورت دستی تقریباً غیرممکن است هر یک از این الگوریتم‌ها با مقایسه پیش‌بینی‌های خود با یک تابع خطا آموزش می بیند اگر مسئله طبقه‌بندی باشد مثل اینکه آیا این حیوان گربه یا سگ است؟ تابع خطا ممکن است از معیار دقت یا accuracy باشد اما اگر یک مسئله رگرسیون باشد مانند بدست آوردن هزینه یک نان لواش در سال آینده، ممکن است خطای میانگین مطلق محاسبه شود.

پایتون زبان انتخابی بین دیتاساینتیست ها است، اما R و Julia نیز گزینه‌های محبوبی هستند و از فریمورک های بسیاری پشتیبانی میکنند تا فرآیند بهبودپذیر تر باشد، در کل نتیجه نهایی فرآیند یادگیری ماشین یک مدل است که در نهایت یک فایل قابل ذخیره برای پیش بینی به ما می دهد و داده های ورودی را با همان شکلی که برای تعلیم آنها آموزش داده شده است، می‌گیرد، سپس پیش‌بینی های لازم را انجام می دهد و دائما تلاش می کند که خطا را که برای آن بهینه شده است، کمینه کند.

پس از آن می‌توانیم آن مدل را در یک دستگاه واقعی قرار بدهیم و از آن استفاده کنیم و یا در فضای ابری برای ساخت یک محصول واقعی در سطح جهانی از آن استفاده کرد. این یادگیری ماشین در ۱۰۰ ثانیه بود. اگر می‌خواهید ویدیوهای کوتاه بیشتری مانند این ببینید، مجله پارس اینفوتک را دنبال کنید و اگر می‌خواهید محتوای بیشتری از یادگیری ماشین را ببینید، کانال یوتیوب و آپارات ما را فالو کنید و نظر فراموش نشود.

machine learning teach a computer how to perform a task without explicitly programming it to perform said task instead feed data into an algorithm to gradually improve outcomes with experience similar to how organic life learns the term was coined in 1959 by arthur samuel at ibm who was developing artificial intelligence that could play checkers half a century later and predictive models are embedded in many of the products we use every day which perform two fundamental jobs one is to classify data like is there another car on the road or does this patient have cancer the other is to make predictions about future outcomes like will the stock go up or which youtube video do you want to watch next the first step in the process is to acquire and clean up data lots and lots of data the better the data represents the problem the better the results garbage in garbage out the data needs to have some kind of signal to be valuable to the algorithm for making predictions and data scientists perform a job called feature engineering to transform raw data into features that better represent the underlying problem the next step is to separate the data into a training set and testing set the training data is fed into an algorithm to build a model then the testing data is used to validate the accuracy or error of the model the next step is to choose an algorithm which might be a simple statistical model like linear or logistic regression or a decision tree that assigns different weights to features in the data or you might get fancy with a convolutional neural network which is an algorithm that also assigns weights to features but also takes the input data and creates additional features automatically and that’s extremely useful for data sets that contain things like images or natural language where manual feature engineering is virtually impossible every one of these algorithms learns to get better by comparing its predictions to an error function if it’s a classification problem like is this animal a cat or a dog the error function might be accuracy if it’s a regression problem like how much will a loaf of bread cost next year then it might be mean absolute error python is the language of choice among data scientists but r and julia are also popular options and there are many supporting frameworks out there to make the process approachable the end result of the machine learning process is a model which is just a file that takes some input data in the same shape that it was trained on then spits out a prediction that tries to minimize the error that it was optimized for it can then be embedded on an actual device or deployed to the cloud to build a real world product this has been machine learning in 100 seconds like and subscribe channel ParsInfotech if you want to see more short videos like this and leave a comment if you want to see more machine learning content on this site thanks for watching and i will see you in the next one.

دنبال کردن در تلگرام دنبال کردن در اینستاگرام دنبال کردن در آپارات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

×