هوش مصنوعی، یا AI، دیگر صرفاً یک مفهوم آیندهنگر نیست. این فناوری به بخشی جداییناپذیر از زندگی روزمره ما تبدیل شده است. این مقاله به جای ارائه یک تعریف کلی، به عمق این فناوری پیچیده میرود و مفاهیم اساسی آن را به زبانی ساده و قابل فهم توضیح میدهد. اینکه هوش مصنوعی چیست؟ چگونه کار میکند؟ و چه تأثیری بر زندگی ما دارد؟
پیشرفتهای چشمگیر در زمینه محاسبات، دسترسی به حجم عظیمی از دادهها و توسعه الگوریتمهای پیچیده، هوش مصنوعی را به یک ابزار قدرتمند تبدیل کرده است. این فناوری ریشه در علوم مختلفی مانند کامپیوتر، ریاضیات، و حتی علوم انسانی دارد و به طور مداوم در حال تکامل است.
هوش مصنوعی به ما امکان میدهد تا ماشینهایی بسازیم که بتوانند یاد بگیرند، استدلال کنند و تصمیم بگیرند. اما هدف از توسعه آن تنها شبیهسازی انسان نیست. بلکه هدف اصلی، ایجاد ابزارهایی است که بتوانند به ما در حل مشکلات پیچیده کمک کنند و زندگی ما را بهبود بخشند.
در این مقاله که از مطالب استاندارد برداشت شده است، مفاهیم کلیدی هوش مصنوعی مانند یادگیری ماشین، یادگیری عمیق، و پردازش زبان طبیعی را بررسی میکنیم. همچنین به کاربردهای مختلف در صنایع مختلف از جمله پزشکی، مالی، و حملونقل میپردازیم.
هدف ما از نگارش این مقاله، ارائه یک دیدگاه جامع و روشن برای طیف گستردهای از مخاطبان است. چه شما یک متخصص کامپیوتر باشید و چه به عنوان یک کاربر عادی از فناوری استفاده کنید، این مقاله میتواند به شما در درک بهتر این فناوری کمک کند.
هوش مصنوعی: مروری بر مفاهیم بنیادی
Artificial Intelligence (AI) یک حوزه بینرشتهای است که به توسعه سیستمهای کامپیوتری میپردازد تا بتوانند کارهایی را انجام دهند که معمولاً به هوش انسانی نیاز دارند. این سیستمها با هدف درک محیط اطراف خود و انجام اقداماتی طراحی میشوند که به آنها در دستیابی به اهدافشان کمک کند. در حقیقت، ترکیبی از علوم مختلف مانند کامپیوتر، ریاضیات، فلسفه و روانشناسی در توسعه این دانش جدید بهره برده است.
سیستمهای هوش مصنوعی به طور کلی ویژگیهای متمایزی نسبت به سیستمهای سنتی دارند:
- تعاملپذیری: این سیستمها با محیط خود تعامل دارند. به عنوان مثال، میتوانند تصاویر را دریافت کنند و اشیاء موجود در آنها را شناسایی نمایند.
- استفاده از منابع متنوع: AI میتواند از انواع مختلف دادهها، از جمله دادههای ساختاریافته و غیرساختاریافته، برای انجام وظایف خود استفاده کند.
- سطح کنترل انسانی: میزان دخالت انسان در کنترل این سیستمها میتواند متفاوت باشد. مثلاً، خودروهای خودران با سطوح مختلف اتوماسیون طراحی میشوند.
- قابلیت یادگیری: برخی از سیستمهای هوش مصنوعی قادر به یادگیری از دادههای جدید هستند و عملکرد خود را بهبود میبخشند.
به طور خلاصه، هوش مصنوعی به دنبال ساخت ماشینهایی است که بتوانند فکر کنند، یاد بگیرند و تصمیم بگیرند. این فناوری در حال حاضر در بسیاری از زمینهها از جمله پزشکی، مالی و حملونقل کاربرد دارد و انتظار میرود در آینده نقش پررنگتری در زندگی انسان ایفا کند.
انواع هوش مصنوعی
بحث بر سر ماهیت هوش مصنوعی همواره یکی از جذابترین مباحث در حوزه فناوری بوده است. آیا ماشینها میتوانند واقعاً فکر کنند و احساس کنند؟ این پرسش به دو دسته اصلی منجر شده است:
ضعیف و قوی
هوش مصنوعی ضعیف (Weak AI) به سیستمهایی گفته میشود که توانایی انجام وظایف مشخصی را دارند، بدون اینکه درک عمیقی از کاری که انجام میدهند داشته باشند. این سیستمها در واقع ابزارهایی قدرتمند برای حل مسائل خاص هستند. برای مثال، یک سیستم تشخیص تصویر که میتواند اشیاء را در یک عکس شناسایی کند.
در مقابل، هوش مصنوعی قوی (Strong AI) به سیستمهایی اشاره دارد که دارای هوش عمومی هستند و قادر به انجام طیف گستردهای از وظایف هستند، درست مانند انسان. این نوع هوش هنوز بیشتر در حوزه تئوری و داستانهای علمیتخیلی قرار دارد.
خاص و عام
- هوش مصنوعی خاص (Narrow) به سیستمهایی گفته میشود که برای انجام یک کار خاص طراحی شدهاند و در آن کار بسیار ماهر هستند. اکثر سیستمهای موجود در حال حاضر در این دسته قرار میگیرند.
- هوش مصنوعی عام (General) به سیستمهایی اشاره دارد که قادر به یادگیری و انجام هر کاری هستند که یک انسان میتواند انجام دهد. که این نوع، یک هدف بلندمدت برای محققان است.
پارادایم عامل: چارچوبی برای هوش مصنوعی
پارادایم عامل (Agent)، یک رویکرد بنیادی در هوش مصنوعی است که به بررسی و ساخت سیستمهای هوشمند میپردازد. در این پارادایم، سیستمهای هوشمند به عنوان عاملهایی در نظر گرفته میشوند که در یک محیط مشخص عمل کرده و با آن تعامل دارند. هر عامل دارای سنسورهایی برای درک محیط، اکتورهایی برای انجام عمل و یک واحد تصمیمگیری برای انتخاب بهترین اقدام است. عاملها با هدف رسیدن به اهداف مشخصی عمل میکنند و میتوانند به صورت مستقل یا در تعامل با سایر عاملها فعالیت کنند. این پارادایم به دلیل انعطافپذیری بالا، قابلیت توزیعشدن و امکان خودکارسازی بسیاری از وظایف، به عنوان یکی از رویکردهای اصلی در توسعه هوش مصنوعی مورد توجه قرار گرفته است. کاربردهای پارادایم عامل در حوزههای مختلفی مانند رباتیک، سیستمهای خبره، بازیهای رایانهای و شبکههای اجتماعی بسیار گسترده است.
عامل هوش مصنوعی و تعامل با محیط
یک عامل هوش مصنوعی را میتوان مانند یک ربات هوشمند تصور کرد که با دنیای اطرافش ارتباط برقرار میکند. این ربات با استفاده از حسگرهایش محیط را میبیند و با استفاده از محرکهایش در آن عمل میکند. هدف اصلی یک عامل این است که با انجام کارهای درست، به اهدافش برسد.
دنیایی که یک عامل در آن فعالیت میکند، میتواند بسیار ساده یا بسیار پیچیده باشد. هرچه محیط پیچیدهتر باشد، عامل باید هوشمندتر باشد تا بتواند تصمیمات بهتری بگیرد.
به طور کلی، عاملهای هوش مصنوعی را میتوان به چهار دسته اصلی تقسیم کرد:
- عاملهای ساده: این عاملها فقط به شرایط فعلی نگاه میکنند و براساس آن تصمیم میگیرند. مثلاً یک جاروبرقی روباتیک که فقط به سنسورهای برخوردش تکیه میکند تا از برخورد با موانع جلوگیری کند.
- عاملهای مدلساز: این عاملها علاوه بر شرایط فعلی، به یاد میآورند که در گذشته چه اتفاقاتی افتاده است و از این اطلاعات برای پیشبینی آینده استفاده میکنند. مثلاً یک خودروی خودران که با استفاده از دوربینها و سنسورهایش، محیط اطراف را مدلسازی میکند و تصمیم میگیرد که چگونه رانندگی کند.
- عاملهای هدفمند: این عاملها اهداف مشخصی دارند و سعی میکنند با انجام کارهای مختلف به آن اهداف برسند. مثلاً یک رباتی که وظیفه دارد یک جعبه را از نقطه A به نقطه B ببرد.
- عاملهای یادگیرنده: این عاملها میتوانند از تجربههای خود یاد بگیرند و با گذشت زمان بهتر عمل کنند. مثلاً یک برنامه شطرنج که با بازی کردن با انسانها، مهارتهای خود را بهبود میبخشد.
دانشمندان کامپیوتر روشهای مختلفی برای ساخت عاملهای هوش مصنوعی پیدا کردهاند و هر روزه در حال پیشرفت این فناوری هستند.
دانش در هوش مصنوعی
در دنیای هوش مصنوعی، کلمه “دانش” معنای خاصی پیدا میکند. این معنا با دانش معمول که ما در زندگی روزمره از آن استفاده میکنیم، کمی متفاوت است.
در هوش مصنوعی، دانش به اطلاعاتی گفته میشود که سیستم از دادههای خام استخراج میکند و به شکلی سازمانیافته و قابل فهم ذخیره میکند. این دانش میتواند شامل قوانین، الگوها، یا مدلهای مختلفی باشد که به سیستم کمک میکند تا مشکلات را حل کند یا تصمیمات بگیرد.
به عبارت سادهتر، داده خام مثل یک قطعه از پازل است و دانش، پازل تکمیل شده. این دانش میتواند به شکلهای مختلفی نمایش داده شود، اما مهم این است که معنای اصلی آن حفظ شود.
برای مثال، یک سیستم هوش مصنوعی که به تشخیص چهره آموزش دیده است، میتواند هزاران عکس از چهره افراد مختلف را به عنوان داده دریافت کند. با پردازش این دادهها، سیستم قادر خواهد بود ویژگیهای مشترک چهره انسانها را شناسایی کند و این دانش را برای تشخیص چهرههای جدید به کار ببرد.
تفاوتهای کلیدی بین داده، اطلاعات و دانش در هوش مصنوعی:
- داده: اعداد، متن، تصاویر یا هر نوع اطلاعات خام دیگری که هنوز پردازش نشده است.
- اطلاعات: دادههایی که سازماندهی شده و معنیدار شدهاند. مثلاً یک جدول از اعداد فروش یک محصول.
- دانش: اطلاعاتی که به صورت ساختاریافته و قابل استفاده برای حل مسائل یا تصمیمگیری درآمده است. مثلاً الگویی که نشان میدهد افزایش قیمت یک محصول باعث کاهش فروش آن میشود.
چرا این تفاوتها مهم هستند؟
درک تفاوت بین داده، اطلاعات و دانش برای توسعه سیستمهای هوش مصنوعی بسیار مهم است. زیرا بسیاری از روشها و الگوریتمهای هوش مصنوعی به این مفاهیم وابسته هستند. برای مثال، سیستمهای یادگیری ماشین از روی دادهها یاد میگیرند و دانش جدیدی تولید میکنند.
انواع محاسبات
شناخت و محاسبات شناختی
شناخت (Cognition) به معنای توانایی یادگیری، درک، تفکر و تصمیمگیری است. این توانایی در انسانها وجود دارد و ما از آن برای انجام کارهای روزمره خود استفاده میکنیم. شناخت شامل کسب و پردازش دانش از طریق استدلال، تجربه انحصاری یا مشترک، یادگیری و درک است. این شامل مفاهیمی مانند توجه، شکلگیری دانش، حافظه، قضاوت و ارزیابی، استدلال و محاسبه، حل مسئله و تصمیمگیری، درک و تولید زبان میشود.
محاسبات شناختی (Cognitive computing) یکی از زیر شاخههای هوش مصنوعی است. هدف آن پیادهسازی شناخت با استفاده از قابلیتهایی مانند شناسایی الگو از پردازش حجم عظیمی از اطلاعات است. این امکان را برای افراد فراهم میکند تا به طور طبیعیتر با ماشینها تعامل کنند. وظایف محاسبات شناختی با یادگیری ماشین (Machine Learning)، پردازش گفتار(speech processing)، پردازش زبان طبیعی (Natural Language Processing)، بینایی ماشین (Machine Vision) و رابطهای انسان و ماشین مرتبط هستند.
در کل، هدف محاسبات شناختی این است که ماشینها را به ابزارهای قدرتمندی تبدیل کند که بتوانند به ما در حل مشکلات و بهبود کیفیت زندگی کمک کنند.
محاسبات معنایی
محاسبات معنایی (Semantic computing) به تطبیق معنای محتوای محاسباتی با اهداف انسان میپردازد. این روش نمایشهایی برای توصیف اطلاعات ارائه میدهد و از این نمایشها برای بازیابی، مدیریت، دستکاری و ایجاد محتوا (مانند متن، ویدئو، صدا، فرآیند، عملکرد، دستگاه و شبکه) استفاده میکند. توصیف معنایی محتوا امکان کاهش عدم قطعیت در فرآیندهای شناختی و استدلال منطقی بر روی اطلاعات را فراهم میکند. این به نوبه خود به غنیسازی، رفع تعارض، خلاصهسازی و مقایسه اطلاعات کمک میکند. بنابراین، محاسبات معنایی رویکردی است که اطلاعات قبلی و یادگیری را ترکیب میکند.
محاسبات نرم
محاسبات نرم (Soft Computing) روشی است که با بهرهگیری از تکنیکهایی مانند سیستمهای فازی، الگوریتمهای تکاملی و شبکههای عصبی، به حل مسائل پیچیدهای میپردازد که در آنها عدم قطعیت، ابهام و اطلاعات ناقص وجود دارد. برخلاف روشهای محاسباتی سنتی که به دنبال یافتن پاسخهای دقیق و قطعی هستند، محاسبات نرم با پذیرش وجود ابهام در دنیای واقعی، راهحلهایی تقریبی و انعطافپذیر ارائه میدهد. این رویکرد به ویژه در مواردی که یافتن پاسخ دقیق بسیار دشوار یا حتی غیرممکن است، بسیار مفید واقع میشود و به ما اجازه میدهد تا با پیچیدگیهای دنیای واقعی بهتر کنار بیاییم.
در جدول زیر به مقایسه محاسبات معنایی و نرم می پردازیم:
محاسبات معنایی | محاسبات نرم | |
هدف | درک معنا | حل مسائل پیچیده |
تمرکز | ساختارهای معنایی | تکنیکهای تحمل عدم قطعیت |
کاربرد | جستجوی اطلاعات، پردازش زبان طبیعی | سیستمهای کنترل، تشخیص الگو |
مثال | موتورهای جستجوی معنایی | سیستمهای فازی |
الگوریتم ژنتیک
الگوریتمهای ژنتیک، الهام گرفته از فرایند تکامل طبیعی، برای حل مسائل بهینهسازی به کار میروند. در این الگوریتمها، مجموعهای از پاسخهای احتمالی (کروموزومها) ایجاد شده و طی نسلهای متعدد، با اعمال عملیاتی مانند انتخاب، ترکیب و جهش، به سمت پاسخ بهینه تکامل مییابند. هر کروموزوم به صورت یک رشته از اعداد باینری نمایش داده میشود و برازندگی آن (نزدیکی به پاسخ بهینه) محاسبه میشود. کروموزومهای با برازندگی بالاتر، احتمال بیشتری برای تولید نسل بعدی دارند. با تکرار این فرایند، الگوریتم به تدریج به پاسخ بهینهتری نزدیک میشود.
رویکردهای حل مسئله در هوش مصنوعی
در هوش مصنوعی، دو رویکرد اصلی برای حل مسائل وجود دارد: نمادین و زیرنمادین.
رویکرد نمادین (Symbolic)، دانش را به صورت نمادها و ساختارهای منطقی نمایش میدهد. این رویکرد شبیه به شیوه تفکر انسان است که مفاهیم را به صورت نمادها و عبارات در ذهن خود سازماندهی میکند. برای مثال، در یک سیستم خبره، قوانین و دانش به صورت جملات منطقی بیان میشوند.
رویکرد زیرنمادین (Sub-Symbolic)، بر خلاف رویکرد نمادین، از نمایشهای صریح و نمادین استفاده نمیکند. بلکه، دانش به صورت ضمنی در ساختارهای شبکهای مانند شبکههای عصبی ذخیره میشود. این رویکرد به سیستم اجازه میدهد تا الگوها را در دادهها بیابد و بدون نیاز به برنامهنویسی صریح قوانین، تصمیمگیری کند. برای مثال، در شبکههای عصبی، دانش از طریق آموزش بر روی دادههای بزرگ به دست میآید.
در واقعیت، بسیاری از سیستمهای هوش مصنوعی مدرن، ترکیبی از این دو رویکرد هستند. این سیستمها از مزایای هر دو رویکرد بهرهمند میشوند و میتوانند مسائل پیچیدهتری را حل کنند. به عنوان مثال، یک سیستم ترجمه ماشینی میتواند از یک مدل زبان بزرگ (که بر اساس رویکرد زیرنمادین است) برای درک معنای جمله استفاده کند و سپس از قوانین دستوری (که بر اساس رویکرد نمادین است) برای تولید جمله ترجمه شده استفاده کند.
به طور خلاصه، رویکرد نمادین به ما اجازه میدهد تا دانش را به صورت صریح و قابل فهم نمایش دهیم، در حالی که رویکرد زیرنمادین به ما اجازه میدهد تا الگوهای پیچیده را در دادهها بیابیم. هر دو رویکرد نقش مهمی در پیشرفت هوش مصنوعی دارند و انتخاب بهترین رویکرد به مسئله مورد نظر بستگی دارد.
داده: سوخت محرک هوش مصنوعی
درست همانطور که انسانها برای یادگیری به تجربیات و اطلاعات نیاز دارند، سیستمهای هوش مصنوعی نیز برای یادگیری و بهبود عملکرد خود به حجم عظیمی از دادهها وابستهاند. این دادهها میتوانند از منابع مختلفی مانند سنسورها، پایگاههای داده، شبکههای اجتماعی و اینترنت جمعآوری شوند.
فرآیند استفاده از داده در هوش مصنوعی
استفاده از داده در هوش مصنوعی به طور کلی شامل مراحل زیر است:
- جمعآوری داده:
- تنوع دادهها: دادهها میتوانند ساختیافته (مانند دادههای موجود در پایگاههای داده) یا بدون ساختار (مانند متن، تصاویر، صوت) باشند.
- حجم دادهها: مقدار دادهها بسیار مهم است. هرچه دادهها بیشتر باشد، مدل هوش مصنوعی میتواند الگوهای پیچیدهتری را شناسایی کند.
- کیفیت دادهها: دقت، کامل بودن و مرتبط بودن دادهها بسیار مهم است. دادههای نادرست یا ناقص میتوانند به نتایج نادرست منجر شوند.
- آمادهسازی داده:
- تمیز کردن دادهها: حذف دادههای تکراری، نادرست یا گمشده.
- تبدیل دادهها: تبدیل دادهها به فرمتی که مدل هوش مصنوعی بتواند از آن استفاده کند.
- نمونهبرداری: انتخاب یک نمونه نماینده از دادهها برای آموزش مدل.
- آموزش مدل:
- انتخاب الگوریتم: انتخاب الگوریتم مناسب برای مسئله مورد نظر (مثلاً شبکههای عصبی، درخت تصمیم، ماشین بردار پشتیبان).
- آموزش مدل: استفاده از دادههای آموزشی برای آموزش مدل و یادگیری الگوهای موجود در دادهها.
- ارزیابی مدل:
- دقت مدل: ارزیابی دقت مدل در پیشبینی نتایج بر روی دادههای جدید.
- تعمیمپذیری مدل: بررسی توانایی مدل در تعمیم دادن نتایج به دادههای دیده نشده.
- بهرهبرداری از مدل:
- استقرار مدل: قرار دادن مدل در یک محیط عملیاتی برای استفاده.
- نظارت بر مدل: نظارت بر عملکرد مدل در طول زمان و بهروزرسانی آن در صورت لزوم.
اهمیت کیفیت دادهها در هوش مصنوعی
کیفیت دادهها به طور مستقیم بر عملکرد مدل هوش مصنوعی تأثیر میگذارد. دادههای با کیفیت پایین میتوانند به نتایج نادرستی منجر شوند. برخی از عوامل مهم در کیفیت دادهها عبارتند از:
- دقت: دادهها باید دقیق و عاری از خطا باشند.
- کامل بودن: دادهها باید کامل و بدون دادههای گمشده باشند.
- مرتبط بودن: دادهها باید مرتبط با مسئله مورد نظر باشند.
- نمایندگی: دادهها باید نماینده جمعیت کلی باشند.
- تعادل: توزیع دادهها باید متعادل باشد.
چالشهای مربوط به دادهها در هوش مصنوعی
- حجم زیاد دادهها: مدیریت و پردازش حجم عظیمی از دادهها میتواند چالشبرانگیز باشد.
- کیفیت پایین دادهها: دادههای نادرست یا ناقص میتوانند به نتایج نادرست منجر شوند.
- حریم خصوصی دادهها: جمعآوری و استفاده از دادههای شخصی میتواند مسائل اخلاقی ایجاد کند.
- سوگیری دادهها: دادههای مغرضانه میتوانند به مدلهای مغرضانه منجر شوند.
با درک اهمیت کیفیت دادهها و فرآیندهای مختلف استفاده از دادهها، میتوانیم مدلهای هوش مصنوعی دقیقتر و کارآمدتری ایجاد کنیم. برخی اصطلاحات مرتبط با داده عبارتند از:
- جمع آوری داده (Data Acquisition)، که در آن داده ها از یک یا چند منبع به دست می آیند. داده ها را می توان از داخل سازمان تهیه کرد یا از خارج وارد کرد. مناسب بودن داده ها باید مورد ارزیابی قرار گیرد، برای مثال، اینکه آیا این داده ها به جهاتی مغرضانه هستند یا به اندازه کافی گسترده هستند که نمایانگر ورودی داده های عملیاتی مورد انتظار باشد.
- تجزیه و تحلیل داده ها (Data Analysis)، که در آن ویژگی های داده ها برای الگوها، روابط، روندها و نقاط پرت بررسی می شوند. چنین تحلیلی می تواند مراحل بعدی مانند آموزش و تأیید را راهنمایی کند.
- حاشیه نویسی داده ها (Data Annotation)، که در آن عناصر مهم داده ها به عنوان ابرداده اضافه می شوند (به عنوان مثال اطلاعات مربوط به منشأ داده یا برچسب هایی برای کمک به آموزش یک مدل).
- آماده سازی داده ها (Data Preparation)، که در آن داده ها به شکلی قرار می گیرند که می تواند توسط سیستم هوش مصنوعی استفاده شود.
- فیلتر کردن داده ها (Data Filtering)، که حذف داده های ناخواسته است. اثرات فیلترینگ باید به دقت مورد بررسی قرار گیرد تا از معرفی سوگیری ناخواسته و سایر مسائل جلوگیری شود.
- نرمال سازی (Normalization)، که عبارت است از تنظیم مقادیر داده ها در یک مقیاس مشترک به طوری که آنها از نظر ریاضی قابل مقایسه باشند.
- حذف هویت (De-identification) فرآیندی است که طی آن اطلاعات شخصی قابل شناسایی (PII) از دادهها حذف یا تغییر مییابد تا حریم خصوصی افراد محافظت شود. اطلاعات شخصی قابل شناسایی به هرگونه اطلاعاتی گفته میشود که بتوان از طریق آن یک شخص خاص را شناسایی کرد، مانند نام، آدرس، شماره ملی، آدرس ایمیل یا دادههای بیومتریک.
- بررسی کیفیت داده ها (data quality checking)، که در آن محتویات داده ها از نظر کامل بودن، برای سوگیری و سایر عواملی که بر سودمندی آن برای سیستم هوش مصنوعی تأثیر می گذارد، بررسی می شود. بررسی مسمومیت دادهها برای اطمینان از اینکه دادههای آموزشی با دادههایی که میتواند پیامدهای مضر یا نامطلوب ایجاد کند آلوده نشده باشد، بسیار مهم است.
- نمونه برداری دادهها (Data Smpling)، که در آن یک زیرمجموعه نماینده دادهها استخراج میشود.
- افزایش دادهها (Data Augmentation)، که در آن دادههایی که در مقادیر بسیار کم در دسترس هستند، به منظور گسترش مجموعه دادهها، دستخوش چندین تغییر میشوند.
- برچسب گذاری داده (Data Labeling)، که در آن مجموعه داده ها برچسب گذاری می شوند، به این معنی که نمونه ها با متغیرهای هدف مرتبط هستند. برچسب ها اغلب برای داده های آزمایشی و داده های اعتبار سنجی مورد نیاز هستند. برخی از رویکردهای ML نیز به در دسترس بودن برچسب ها برای آموزش مدل متکی هستند.
دسته بندی دیتا بسته به رویکرد
بسته به مورد استفاده و رویکرد مورد استفاده، داده ها در سیستم هوش مصنوعی می توانند به روش های مختلفی درگیر شوند:
- داده های تولیدی (Production Data)، داده هایی است که توسط سیستم هوش مصنوعی در مرحله عملیات پردازش می شود. همه سیستمهای ai شامل دادههای تولید نمیشوند، بسته به مورد استفاده، اما این مستقل از طراحی فنی و رویکرد سیستم Ai است.
- داده های آزمایشی (Test Data) داده هایی است که برای ارزیابی عملکرد سیستم ai، قبل از استقرار آن استفاده می شود. انتظار میرود که مشابه دادههای تولید باشد و ارزیابی مناسب نیاز دارد که دادههای آزمایشی از هر دادهای که در طول توسعه استفاده میشود جدا باشد. همه رویکردهای ai نیاز به ارزیابی دارند، اما بسته به وظیفه، همیشه استفاده از دادههای آزمایش کافی نیست.
- دادههای اعتبارسنجی (Validation Data) مربوط به دادههایی است که توسط توسعهدهنده برای ایجاد یا تأیید برخی از انتخابهای الگوریتمی (جستجوی فراپارامتر، طراحی قوانین و غیره) استفاده میشود. بسته به میدان ai نام های مختلفی دارد، به عنوان مثال در پردازش زبان طبیعی معمولاً به عنوان داده توسعه نامیده می شود. مواردی وجود دارد که به داده های اعتبارسنجی نیاز نیست.
- داده های آموزشی (Training Data) به طور خاص در زمینه یادگیری ماشین استفاده می شود: به عنوان ماده خامی عمل می کند که الگوریتم یادگیری ماشین از آن مدل خود را برای پرداختن به وظیفه داده شده استخراج می کند.
یادگیری ماشین
انواع روش های یادگیری ماشین
یادگیری ماشین نظارتشده
یادگیری ماشین نظارتشده (Supervised Learning) روشی است که در آن مدلهای یادگیری با استفاده از دادههایی آموزش میبینند که به صورت دقیق برچسبگذاری شدهاند. این برچسبها میتوانند انواع مختلفی داشته باشند، مثل اعداد، دستهها (مثلاً گربه یا سگ) یا حتی ساختارهای پیچیدهتری مثل تصاویر و متن. با داشتن این برچسبها، مدل میتواند الگوها را شناسایی کند و پیشبینیهایی دقیقتری انجام دهد. برای مثال، اگر بخواهیم به مدل یاد بدهیم که تصاویری از گربهها را از سگها تشخیص دهد، به آن مجموعه بزرگی از تصاویر برچسبگذاری شده نشان میدهیم.
یادگیری ماشین نظارتنشده
برخلاف روش قبلی، یادگیری ماشین نظارتنشده (Unsupervised Learning) از دادههایی استفاده میکند که برچسبگذاری نشدهاند. در این روش، مدل به دنبال یافتن الگوها و ساختارهای پنهان در دادههاست بدون اینکه از قبل بداند چه چیزی را باید پیدا کند. برای مثال، خوشهبندی یکی از کاربردهای مهم یادگیری نظارتنشده است که در آن دادهها به گروههایی تقسیم میشوند که شباهت زیادی به هم دارند. این روش میتواند در مواردی مثل تحلیل بازار، تشخیص تقلب و کشف دانش جدید استفاده شود.
یادگیری ماشین نیمهنظارتشده
یادگیری ماشین نیمهنظارتشده (Semi-Supervised Learning) روشی است که ترکیبی از دو روش یادگیری ماشین نظارتشده و نظارتنشده است. در این روش، مدل هم از دادههای برچسبگذاری شده (که میدانیم به چه کلاسی تعلق دارند) و هم از دادههای بدون برچسب (که کلاس آنها مشخص نیست) استفاده میکند.
در جدول زیر به مقایسه روش های یادگیری می پردازیم:
روش یادگیری ماشین | نوع داده | هدف |
نظارتشده | برچسبگذاری شده | پیشبینی، طبقهبندی |
نظارتنشده | بدون برچسب | کشف الگو، خوشهبندی |
نیمهنظارتشده | برچسبگذاری شده و بدون برچسب | بهبود کارایی، استفاده از دادههای بدون برچسب |
یادگیری تقویتی
یادگیری تقویتی (Reinforcement Learning) مثل آموزش یک حیوان خانگی است. حیوان با آزمون و خطا یاد میگیرد که کدام رفتارها پاداش بیشتری دارند. در هوش مصنوعی هم، یک عامل (مثل یک ربات یا یک برنامه کامپیوتری) با تعامل با محیطش یاد میگیرد بهترین تصمیمها را بگیرد. این عامل با هر تصمیم، پاداش یا تنبیهی دریافت میکند و به مرور زمان یاد میگیرد که برای کسب پاداش بیشتر، چه کاری انجام دهد.
یادگیری انتقالی
یادگیری انتقالی (Transfer Learning) مثل استفاده از دانش قبلی برای حل یک مسئله جدید است. مثلاً اگر یاد گرفته باشیم که اعداد را بشناسیم، میتوانیم از این دانش برای تشخیص اعداد نوشته شده با دست هم استفاده کنیم. در واقع، ما دانش خود را از یک مسئله به مسئله دیگری منتقل میکنیم.
تقسیم دادهها در یادگیری ماشین
برای اینکه بتوانیم عملکرد یک مدل یادگیری ماشین را به طور دقیق ارزیابی کنیم، معمولاً دادههایمان را به سه دسته تقسیم میکنیم:
- دادههای آموزشی (Training Data): این دادهها برای آموزش اولیه مدل استفاده میشوند. به عبارت دیگر، مدل با استفاده از این دادهها الگوها و روابط بین ویژگیها و برچسبها را یاد میگیرد.
- دادههای اعتبارسنجی (Validation Data): این دادهها برای تنظیم پارامترهای مدل استفاده میشوند. به عبارت دیگر، ما از این دادهها برای پیدا کردن بهترین تنظیمات برای مدل استفاده میکنیم تا دقت آن روی دادههای جدید افزایش یابد.
- دادههای آزمون (Test Data): این دادهها برای ارزیابی نهایی عملکرد مدل استفاده میشوند. این دادهها باید کاملاً جدید باشند و مدل قبلاً آنها را ندیده باشد. با استفاده از دادههای آزمون، میتوانیم ببینیم که مدل چقدر خوب میتواند دادههای جدید و ندیده را پیشبینی کند.
چرا این تقسیمبندی مهم است؟
تصور کنید میخواهیم به یک کودک جدول ضرب را یاد دهیم. اگر فقط به او سوالهای تمرین را بدهیم و او فقط به آنها پاسخ دهد، ممکن است در امتحان نهایی که سوالات جدیدی دارد، عملکرد خوبی نداشته باشد. در یادگیری ماشین هم همین اتفاق ممکن است بیفتد. اگر مدل فقط دادههای آموزشی را ببیند، ممکن است آنها را حفظ کند، اما نتواند الگوهای کلی را یاد بگیرد و در نتیجه در دادههای جدید عملکرد خوبی نداشته باشد.
اعتبارسنجی متقاطع چیست؟
در بعضی موارد، ممکن است دادههای کافی برای تقسیم به سه دسته جداگانه نداشته باشیم. در این حالت، از تکنیکی به نام اعتبارسنجی متقاطع استفاده میکنیم. در این روش، دادهها به چندین قسمت تقسیم میشوند و به نوبت هر قسمت به عنوان داده اعتبارسنجی و بقیه به عنوان داده آموزشی استفاده میشوند. این کار به ما اجازه میدهد که از همه دادهها حداکثر استفاده را ببریم و مدل دقیقتری داشته باشیم.
در نهایت با استفاده از این روش تقسیم دادهها، میتوانیم اطمینان حاصل کنیم که مدل ما نه تنها در دادههای آموزشی، بلکه در دادههای جدید نیز عملکرد خوبی دارد. این کار به ما کمک میکند تا مدلهایی با دقت و قابلیت اطمینان بالاتر بسازیم.
در تصویر زیر سه مثال از نحوه تقسیم بندی داده برای آموزش، اعتبارسنجی و تست ارائه شده است:
مدل آموزشدیده
یک مدل آموزشدیده (Trained model) در واقع همان نتیجهی آموزش یک مدل یادگیری ماشین است. این مدل با استفاده از دادههای آموزشی و الگوریتمهای خاص ساخته میشود و میتواند بر اساس دادههای جدید، پیشبینیهایی انجام دهد. به زبان سادهتر، مدل آموزشدیده مثل یک ماشین حساب هوشمند است که میتواند با توجه به اطلاعاتی که به آن میدهیم، نتیجهای را پیشبینی کند. این مدلها در قالبهای مختلفی ذخیره میشوند تا بتوان از آنها در سیستمهای هوش مصنوعی استفاده کرد.
بازآموزی و یادگیری پیوسته
تصور کنید یک مدل هوش مصنوعی داریم که وظیفه تشخیص اشیاء در تصاویر را بر عهده دارد. در ابتدا، این مدل با استفاده از هزاران عکس آموزش دیده است تا بتواند گربه، سگ و ماشین را تشخیص دهد. اما با گذشت زمان، دنیای اطراف ما تغییر میکند. ممکن است مدل ما در تشخیص نژادهای جدید سگ یا ماشینهای خودران مشکل داشته باشد. در این صورت، چه باید کرد؟
بازآموزی (Retraining):
یکی از راهکارها، بازآموزی مدل است. در این روش، ما مدل قبلی را با استفاده از دادههای جدید آموزش میدهیم. این دادههای جدید ممکن است شامل تصاویر جدیدی از نژادهای مختلف سگ یا ماشینهای خودران باشد. با اضافه کردن این دادهها به مجموعه دادههای آموزشی، مدل میتواند دانش خود را بهروزرسانی کند و توانایی تشخیص اشیاء جدید را پیدا کند.
چرا به بازآموزی نیاز داریم؟
- تغییر دادهها (Data Drift): با گذشت زمان، ویژگیهای دادهها تغییر میکنند. مثلاً ممکن است تصاویری با رزولوشن بالاتر یا با نورپردازی متفاوت به دست بیاوریم.
- تغییر مفهوم (Concept Drift): گاهی اوقات، مفاهیم تغییر میکنند. مثلاً قوانین رانندگی تغییر میکنند و در نتیجه، تعریف یک ماشین پارک شده ممکن است متفاوت شود.
یادگیری پیوسته (Continuous Learning):
یک قدم فراتر از بازآموزی، یادگیری پیوسته است. در این روش، مدل به طور مداوم در حین استفاده، با دادههای جدید آموزش میبیند. این کار باعث میشود که مدل همیشه بهروز باشد و بتواند با تغییرات محیط اطراف خود سازگار شود.
چالشهای یادگیری پیوسته:
- فراموشی فاجعهبار (Catastrophic Forgetting): هنگامی که یک مدل چیز جدیدی یاد میگیرد، ممکن است اطلاعات قبلی خود را فراموش کند. این پدیده، فراموشی فاجعهبار نامیده میشود.
- پیچیدگی: پیادهسازی سیستمهای یادگیری پیوسته پیچیدهتر از سیستمهای سنتی است.
مزایای یادگیری پیوسته:
- انعطافپذیری بیشتر: مدلهایی که قابلیت یادگیری پیوسته دارند، میتوانند بهتر با تغییرات محیط سازگار شوند.
- دقت بالاتر: با بهروزرسانی مداوم، دقت مدل بهبود مییابد.
- کاهش هزینههای نگهداری: نیازی به آموزش مجدد کامل مدل در فواصل زمانی طولانی نیست.
بازآموزی و یادگیری پیوسته دو تکنیک مهم در حوزه یادگیری ماشین هستند که به مدلها کمک میکنند تا در دنیای پویا و در حال تغییر، عملکرد بهتری داشته باشند. با استفاده از این تکنیکها، میتوانیم مدلهایی ایجاد کنیم که قادر به یادگیری مستمر و سازگاری با تغییرات باشند.
شبکههای عصبی مصنوعی
شبکههای عصبی (Artificial Neural Network) یکی از قدرتمندترین ابزارها در حوزه یادگیری ماشین هستند. این ابزارها الهام گرفته از ساختار مغز انسان، تلاش میکنند تا به کامپیوترها توانایی یادگیری و تصمیمگیری هوشمندانه را بدهند.
چگونه شبکههای عصبی کار میکنند؟
تصور کنید مغز انسان را به عنوان یک شبکه بزرگ از نورونها در نظر بگیریم. هر نورون با نورونهای دیگر ارتباط دارد و با ارسال سیگنالها با هم ارتباط برقرار میکنند. شبکههای عصبی مصنوعی نیز به همین شکل کار میکنند. آنها از واحدهای پردازشی به نام نورون تشکیل شدهاند که به هم متصل هستند.
- لایهها: نورونها در لایههایی سازماندهی شدهاند. اطلاعات از یک لایه به لایه بعدی منتقل میشود.
- وزنها: هر ارتباط بین دو نورون یک وزن دارد. این وزن نشان میدهد که چقدر یک نورون روی نورون دیگر تأثیر میگذارد.
- یادگیری: شبکه عصبی با تنظیم این وزنها یاد میگیرد. به این صورت که ابتدا به شبکه دادههای آموزشی داده میشود. سپس شبکه با مقایسه خروجی خود با پاسخ صحیح، وزنها را تنظیم میکند تا خروجی به پاسخ صحیح نزدیکتر شود.
انواع شبکههای عصبی
- شبکههای عصبی پیشخور (Feed Forward Neural Network): سادهترین نوع شبکههای عصبی هستند که اطلاعات فقط در یک جهت از ورودی به خروجی حرکت میکند.
- شبکههای عصبی بازگشتی (Recurrent Neural Network): این شبکهها میتوانند اطلاعات گذشته را به خاطر بسپارند و برای پیشبینی آینده استفاده کنند.
- شبکههای عصبی کانولوشنی (Convolutional Neural Network): این شبکهها برای پردازش دادههای تصویری بسیار مناسب هستند و میتوانند ویژگیهای مهم تصاویر را استخراج کنند.
یادگیری عمیق
وقتی شبکههای عصبی دارای لایههای بسیار زیادی باشند، به آنها شبکههای عصبی عمیق یا شبکههای یادگیری عمیق میگویند. این شبکهها توانایی یادگیری ویژگیهای پیچیده و انتزاعی را دارند و در بسیاری از حوزهها مانند تشخیص تصویر، پردازش زبان طبیعی و تولید متن استفاده میشوند.
مزایای شبکههای عصبی
- یادگیری خودکار: شبکههای عصبی میتوانند از دادهها الگوهای پیچیده را استخراج کنند و بدون نیاز به برنامهنویسی دقیق، تصمیمگیری کنند.
- انعطافپذیری: میتوان از شبکههای عصبی برای حل طیف وسیعی از مشکلات استفاده کرد.
- دقت بالا: شبکههای عصبی میتوانند دقت بسیار بالایی در پیشبینیها داشته باشند.
شبکههای عصبی ابزارهای قدرتمندی هستند که به کامپیوترها اجازه میدهند تا مانند انسان یاد بگیرند و تصمیم بگیرند. با پیشرفت تکنولوژی، کاربرد شبکههای عصبی در حال گسترش است و در آینده شاهد پیشرفتهای بیشتری در این حوزه خواهیم بود.
شبکه عصبی پیشخور (FFNN)
سادهترین نوع شبکه عصبی، شبکه عصبی پیشخور است. اطلاعات در این شبکه تنها در یک جهت از ورودی به خروجی حرکت میکند. هیچ ارتباطی بین نورونهای درون یک لایه وجود ندارد. معمولاً دو لایه مجاور به صورت کامل (Fully-Connected) به هم متصل هستند، به این معنی که هر نورون در یک لایه به هر نورون در لایه بعدی متصل است.
شبکه عصبی بازگشتی (RNN)
RNNها با ورودیهایی سروکار دارند که به صورت ترتیب ظاهر میشوند، یعنی ترتیب ورودیها در دنباله مهم است. مثالهایی از این ورودیها شامل دنبالههای دینامیک مانند جریان صدا و ویدیو، اما همچنین دنبالههای ثابت مانند متن یا حتی تصاویر واحد است. RNNها دارای گرههایی هستند که هم اطلاعات ورودی را از لایه قبلی دریافت میکنند و هم اطلاعاتی را از خودشان از یک گذر قبلی در نظر میگیرند. RNNها دارای خاصیت وضعیتدار هستند که تحت تأثیر یادگیری گذشته قرار میگیرند. RNNها به طور گسترده در تشخیص گفتار، ترجمه ماشینی، پیشبینی سری زمانی و تشخیص تصویر استفاده میشوند.
چرا RNNها مهم هستند؟
- حافظه: بر خلاف شبکههای عصبی معمولی که هر ورودی را به صورت جداگانه پردازش میکنند، RNNها میتوانند اطلاعات گذشته را به خاطر بسپارند و از این اطلاعات برای پردازش دادههای جدید استفاده کنند. این ویژگی به آنها اجازه میدهد تا روابط پیچیده بین دادهها را درک کنند.
- دنبالهها: RNNها برای کار با دادههایی که به صورت دنباله هستند، مانند متن، صوت و ویدیو، بسیار مناسب هستند.
- کاربردهای گسترده: از تشخیص گفتار تا ترجمه ماشینی و پیشبینی سری زمانی، RNNها در بسیاری از زمینهها کاربرد دارند.
چگونه RNNها کار میکنند؟
- حلقه بازگشتی: مهمترین ویژگی RNNها، حلقه بازگشتی است. این حلقه به RNN اجازه میدهد تا اطلاعات را از یک مرحله زمانی به مرحله زمانی بعدی منتقل کند.
- حالت: هر RNN دارای یک حالت است که در آن اطلاعات درباره ورودیهای قبلی ذخیره میشود. این حالت به RNN اجازه میدهد تا ارتباط بین ورودیهای مختلف را درک کند.
- یادگیری: RNNها با استفاده از الگوریتمهای یادگیری مانند پسانتشار، وزنهای خود را تنظیم میکنند تا بتوانند وظایف مورد نظر را انجام دهند.
شبکه عصبی حافظه کوتاه بلند (LSTM)
مشکل گرادیان ناپدید شونده: در RNNهای عمیق، گرادیانها ممکن است به سرعت کوچک شوند و باعث شوند که شبکه نتواند اطلاعات دور را یاد بگیرد.
شبکههای LSTM (Long Short-Term Memory) نوع خاصی از RNN هستند که برای حل مشکل گرادیان ناپدید شونده طراحی شدهاند. LSTMها دارای مکانیزمی هستند که به آنها اجازه میدهد اطلاعات را برای مدت طولانیتری به خاطر بسپارند. شبکههای LSTM میتوانند دنبالههای پیچیده مانند نوشتن مانند شکسپیر یا ساخت موسیقی را بیاموزند.
شبکه عصبی کانولوشنال
شبکه عصبی کانولوشنال (Convolutional Neural Network) نوعی شبکه عصبی است که حداقل یک لایه کانولوشن (پیچش) برای فیلتر کردن اطلاعات مفید از ورودیها شامل میشود. کاربردهای رایج آن شامل تشخیص تصویر، برچسبگذاری ویدیو و پردازش زبان طبیعی است.
شبکههای بیزین
تصور کنید میخواهید بدانید چرا بیمار شدهاید. شما علائم مختلفی دارید و میخواهید بفهمید کدام بیماری باعث این علائم شده است. شبکههای بیزی (Baysian Network) به شما کمک میکنند تا با استفاده از احتمالات، روابط بین بیماریها و علائم را مدلسازی کنید. به عنوان مثال، اگر تب داشته باشید، احتمال اینکه به آنفلوآنزا مبتلا شده باشید بیشتر است. شبکههای بیزی این روابط را به صورت یک نمودار نشان میدهند و با استفاده از آن میتوانیم احتمال وقوع هر بیماری را با توجه به علائم موجود محاسبه کنیم.
درخت تصمیم
درخت تصمیم (Decision tree) شبیه یک نمودار جریان است که در آن هر گره یک سوال را مطرح میکند و هر شاخه پاسخ به آن سوال است. این درخت به شما کمک میکند تا تصمیم بگیرید. برای مثال، تصور کنید میخواهید بدانید که آیا باید به مسافرت بروید یا نه. درخت تصمیم با پرسیدن سوالهایی مانند “آیا هوا خوب است؟”، “آیا تعطیلات است؟” و … به شما کمک میکند تا بهترین تصمیم را بگیرید. در یادگیری ماشین، درخت تصمیم برای طبقهبندی دادهها استفاده میشود. به عنوان مثال، میتوانیم از درخت تصمیم برای پیشبینی اینکه یک ایمیل اسپم است یا نه استفاده کنیم.
ماشین بردار پشتیبان (SVM)
SVM (Support Vector Machine) یک روش قدرتمند برای طبقهبندی دادهها است. تصور کنید میخواهید دادهها را به دو دسته تقسیم کنید، مانند اینکه یک ایمیل اسپم است یا نه. SVM یک خط (یا در فضاهای با ابعاد بالاتر، یک هایپرپلن) پیدا میکند که بهترین جداسازی بین دو دسته را ایجاد کند. به این خط، “خط تصمیم” گفته میشود. نقاطی که نزدیکترین فاصله را به این خط دارند، “بردارهای پشتیبان” نامیده میشوند. SVM سعی میکند این خط را طوری قرار دهد که حاشیه بین دو دسته حداکثر شود.
دو نوع SVM وجود دارد:
- SVM حاشیه سخت: این نوع SVM تنها زمانی کار میکند که دادهها به طور کامل قابل جداسازی باشند، یعنی هیچ دادهای از دسته اشتباه در طرف دیگر خط قرار نداشته باشد. در عمل، این نوع SVM بسیار نادر است.
- SVM حاشیه نرم: این نوع SVM واقعگرایانهتر است و اجازه میدهد برخی از دادهها در طرف اشتباه خط قرار بگیرند. هدف این است که تعداد این موارد را به حداقل برسانیم و در عین حال حاشیه بین دو دسته را تا حد امکان
- بزرگ نگه داریم.
SVM و نگاشت دادهها
SVM میتواند از توابع کرنل استفاده کند تا دادهها را از فضای اصلی به یک فضای با ابعاد بالاتر نگاشت کند. این کار ممکن است باعث شود دادهها در فضای جدید قابل جداسازی شوند، حتی اگر در فضای اصلی قابل جداسازی نبودند.
SVM برای رگرسیون
علاوه بر طبقهبندی، SVM همچنین میتواند برای رگرسیون استفاده شود. در این حالت، هدف این است که بیشترین تعداد نقاط داده را درون یک حاشیه قرار دهیم، در حالی که تعداد نقاط خارج از حاشیه را به حداقل برسانیم.
کاربردهای SVM
SVM در بسیاری از زمینهها از جمله تشخیص تصویر، پردازش متن، و پیشبینی استفاده میشود.
خودمختاری، ناهمگونی و اتوماسیون
در ارتباط با هوش مصنوعی با سه مفهوم زیر سر و کار داریم:
- خودمختاری (Autonomy): توانایی یک سیستم برای تصمیمگیری و عمل بدون دخالت مستقیم انسان.
- ناهمگونی (Heteronomy): وضعیتی که در آن سیستم هوش مصنوعی تا حدی به انسان وابسته است، اما کاملاً تحت کنترل آن نیست.
- اتوماسیون: جایگزینی کارهای انسانی با ماشینها.
سیستمهای هوش مصنوعی را میتوان بر اساس سطح اتوماسیون و اینکه آیا تحت کنترل خارجی هستند مقایسه کرد. خودمختاری (Autonomy) در یک طرف باره و یک سیستم کاملاً تحت کنترل انسان در طرف دیگر قرار دارد، با درجات مختلف ناهمگونی (heteronomy) در بین آنها. جدول زیر رابطه بین خودمختاری، ناهمگونی و اتوماسیون، از جمله حالت صفر اتوماسیون را نشان میدهد.
نکته: در حقوق، خودمختاری به قابلیت خودگردانی اشاره دارد. از این نظر، اصطلاح “خودمختار” نیز در مورد سیستمهای هوش مصنوعی خودکار یک اسم اشتباه است، زیرا حتی پیشرفتهترین سیستمهای هوش مصنوعی نیز خودگردان نیستند. بلکه سیستمهای هوش مصنوعی بر اساس الگوریتمها عمل میکنند و از دستورات اپراتورها پیروی میکنند.
معیارهای مرتبط برای طبقهبندی یک سیستم در این طیف عبارتند از:
- وجود یا عدم وجود نظارت خارجی، چه توسط یک اپراتور انسانی (“انسان در حلقه”) یا توسط یک سیستم خودکار دیگر؛
- درجه درک موقعیتی سیستم، از جمله کامل بودن و عملیاتی بودن مدل سیستم از حالتهای محیط آن، و اطمینان از اینکه سیستم میتواند در محیط خود استدلال و عمل کند؛
- درجه واکنشپذیری یا پاسخگویی، از جمله اینکه آیا سیستم میتواند تغییرات در محیط خود را متوجه شود، آیا میتواند به تغییرات واکنش نشان دهد و آیا میتواند تغییرات آینده را تعیین کند؛
- اینکه آیا عملکرد آن تا تکمیل یک کار خاص یا وقوع یک رویداد خاص در محیط ادامه مییابد (مثلاً برای دستیابی به یک هدف، تایمرها یا مکانیسمهای دیگر)؛
- درجه سازگاری با تغییرات، نیازها یا انگیزههای داخلی یا خارجی؛
- توانایی ارزیابی عملکرد یا تناسب خود، از جمله ارزیابیها بر اساس اهداف از پیش تعیینشده؛
- توانایی تصمیمگیری و برنامهریزی پیشگیرانه در رابطه با اهداف، انگیزهها و انگیزشهای سیستم.
عوامل موثر بر سطح خودمختاری
- نظارت انسانی: آیا سیستم به طور مداوم تحت نظارت انسان است یا میتواند به صورت مستقل کار کند؟
- درک محیط: آیا سیستم میتواند محیط اطراف خود را درک کند و تغییرات آن را پیشبینی کند؟
- توانایی تصمیمگیری: آیا سیستم میتواند به تنهایی تصمیم بگیرد و اقدام کند؟
- انطباقپذیری: آیا سیستم میتواند خود را با شرایط جدید وفق دهد؟
اهمیت نظارت انسانی
حتی پیشرفتهترین سیستمهای هوش مصنوعی نیز به طور کامل مستقل نیستند و به نظارت انسان نیاز دارند. نظارت انسانی به اطمینان از اینکه سیستم طبق انتظار کار میکند و خطرات احتمالی را کاهش میدهد، کمک میکند. در بسیاری از موارد، به جای اینکه هوش مصنوعی جایگزین انسان شود، میتواند به عنوان یک ابزار برای افزایش تواناییهای انسان عمل کند. به این همکاری، همکاری انسان و ماشین میگویند.
اینترنت اشیا و سیستمهای سایبر-فیزیکی
هوش مصنوعی به طور فزایندهای به عنوان یک جزء در سیستمهای تعبیه شده مانند اینترنت اشیا و سیستمهای سایبر-فیزیکی استفاده میشود. این استفاده هم برای تجزیه و تحلیل جریانهای اطلاعاتی درباره جهان فیزیکی که از حسگرها به دست میآید و هم برای پیشبینی و تصمیمگیری درباره فرآیندهای فیزیکی است. این تصمیمگیریها برای ارسال دستورات مناسب به عملگرها به منظور کنترل یا تأثیرگذاری بر این فرآیندها استفاده میشود.
اینترنت اشیا
اینترنت اشیا (IoT) یک زیرساخت متشکل از موجودیتها، سیستمها و منابع اطلاعاتی مرتبط به همراه خدماتی است که به پردازش و واکنش به اطلاعات از جهان فیزیکی و مجازی میپردازند. در اصل، یک سیستم IoT شبکهای از گرهها با حسگرها و عملگرها است. حسگرها ویژگیهای موجودیتهای فیزیکی را اندازهگیری کرده و دادههای مربوط به این اندازهگیریها را منتقل میکنند، در حالی که عملگرها ویژگیهای موجودیتهای فیزیکی را در پاسخ به ورودی دیجیتال تغییر میدهند.
نظارت پزشکی و نظارت بر وضعیت جوی نمونههایی از سیستمهای IoT هستند که خروجی آنها اطلاعاتی است که قصد دارد به فعالیتهای انسانها کمک کند (مانند هشدارها به کادر پزشکی، پیشبینیهای آب و هوایی برای مردم).
سیستمهای IoT شامل سیستمهای فناوری اطلاعات شبکهای هستند که با موجودیتهای فیزیکی تعامل دارند. اساس سیستمهای IoT، دستگاههای دیجیتال IoT هستند که به صورت حسگرها و عملگرها با موجودیتهای فیزیکی تعامل دارند. یک حسگر یک یا چند ویژگی از یک یا چند موجودیت فیزیکی را اندازهگیری کرده و دادههایی را تولید میکند که میتوانند از طریق شبکه منتقل شوند. یک عملگر یک یا چند ویژگی از یک موجودیت فیزیکی را در پاسخ به یک ورودی معتبر که از طریق شبکه دریافت میشود، تغییر میدهد. هم حسگرها و هم عملگرها میتوانند به اشکال مختلفی باشند، مانند دماسنجها، شتابسنجها، دوربینهای ویدئویی، میکروفونها، رلهها، بخاریها، رباتها یا تجهیزات صنعتی برای تولید یا کنترل فرآیند.
هوش مصنوعی میتواند نقش مهمی در زمینه سیستمهای IoT ایفا کند. این نقش شامل تجزیه و تحلیل دادههای ورودی و تصمیمگیری است که میتواند در دستیابی به اهداف سیستم، مانند کنترل موجودیتهای فیزیکی و فرآیندهای فیزیکی، با ارائه اطلاعات زمینهای، بلادرنگ و پیشبینیکننده کمک کند.
سیستمهای سایبر-فیزیکی
سیستمهای سایبر-فیزیکی (CPS) سیستمهایی مشابه IoT هستند، اما در آنها کنترل منطقی بر ورودیهای حسگرها اعمال میشود تا فعالیتهای عملگرها را هدایت کرده و بدین ترتیب بر فرآیندهایی که در جهان فیزیکی رخ میدهند تأثیر بگذارند.
یک ربات نمونهای از سیستم CPS است که ورودی حسگر به طور مستقیم برای کنترل فعالیتهای عملگرها استفاده میشود. رباتیک شامل تمام فعالیتهای مربوط به طراحی، مونتاژ، تولید، کنترل و استفاده از رباتها برای انواع کاربردها است. یک ربات از اجزای الکترونیکی، مکانیکی، میانافزار و نرمافزاری تشکیل شده است که با یکدیگر برای رسیدن به اهداف تعیین شده برای یک کاربرد خاص تعامل میکنند. رباتها معمولاً شامل حسگرها برای ارزیابی وضعیت فعلی، پردازندهها برای فراهم آوردن کنترل از طریق تجزیه و تحلیل و برنامهریزی اقدامات و عملگرها برای انجام اقدامات هستند. رباتهای صنعتی که در سلولهای تولیدی قرار دارند، برنامهریزی شدهاند تا به طور دقیق همان مسیرها و اقدامات را بارها و بارها بدون انحراف تکرار کنند. رباتهای خدماتی یا رباتهای همکار نیاز به تطبیق با شرایط متغیر و محیطهای پویا دارند. برنامهریزی این انعطافپذیری به دلیل تمام تغییرات موجود، به طور غیرقابل حل چالشبرانگیز است.
اجزای سیستم هوش مصنوعی میتوانند به عنوان بخشی از نرمافزار کنترل و فرآیند برنامهریزی از طریق الگوی “حس، برنامهریزی، عمل” عمل کنند و بدین ترتیب به رباتها امکان تنظیم زمانی که موانع ظاهر میشوند یا زمانی که اشیاء هدف جابجا شدهاند را بدهند. ترکیب رباتیک و اجزای سیستم هوش مصنوعی امکان تعامل فیزیکی خودکار با اشیاء، محیط و افراد را فراهم میکند.
حوزه های هوش مصنوعی
بینایی ماشین و تشخیص تصویر
بینایی ماشین را به عنوان “توانایی یک واحد عملکردی برای دریافت، پردازش و تفسیر دادههایی که تصاویر یا ویدئو را نشان میدهند” تعریف میشود که ارتباط نزدیکی با پردازش تصویر دارد، به عنوان مثال پردازش تصاویر دیجیتال. دادههای بصری معمولاً از یک حسگر تصویر دیجیتال، یک تصویر آنالوگ اسکن شده دیجیتالی یا برخی از دستگاههای ورودی گرافیکی دیگر سرچشمه میگیرند. برای اهداف این سند، تصاویر دیجیتال شامل انواع ثابت و متحرک هستند.
تصاویر دیجیتال به صورت ماتریسی از اعداد وجود دارند که مقیاسهای خاکستری یا رنگها را در تصویر گرفته شده یا در موارد دیگر مجموعهای از بردارها را نشان میدهند. میتوانند شامل فرادادههایی باشند که ویژگیها و خصوصیات مرتبط با تصویر را شرح میدهند. همچنین میتوان تصاویر دیجیتال را برای صرفهجویی در فضای ذخیرهسازی و بهبود عملکرد انتقال آنها در شبکههای دیجیتال فشرده کرد.
در زیر نمونههایی از کاربردهای هوش مصنوعی مبتنی بر بینایی ماشین و تشخیص تصویر آورده شده است:
- شناسایی تصاویر خاص از مجموعهای از تصاویر (به عنوان مثال تصاویر سگ در مجموعهای از تصاویر حیوانات)
- وسایل نقلیه خودران: تشخیص و شناسایی علائم راهنمایی و رانندگی و اشیاء در وسایل نقلیه خودکار
- تشخیص پزشکی: تشخیص بیماری و ناهنجاری در تصویربرداری پزشکی
- کنترل کیفیت (به عنوان مثال، تشخیص قطعات معیوب در خط مونتاژ)
- تشخیص چهره
وظایف اساسی برای بینایی ماشین شامل دریافت تصویر، نمونهبرداری مجدد، مقیاسبندی، کاهش نویز، افزایش کنتراست، استخراج ویژگی، تقسیمبندی، تشخیص و طبقهبندی اشیا است.
روشهای مختلفی برای انجام وظایف بینایی ماشین در سیستمهای هوش مصنوعی در دسترس است. استفاده از شبکه عصبی کانولوشن عمیق در سالهای اخیر به دلیل دقت بالای آنها در کارهای طبقهبندی تصویر و عملکرد آموزش و پیشبینی آنها مورد توجه قرار گرفته است.
پردازش زبان طبیعی
پردازش زبان طبیعی، پردازش اطلاعات بر اساس درک زبان طبیعی و تولید زبان طبیعی است. این شامل تجزیه و تحلیل و تولید زبان طبیعی، با متن یا گفتار است. با استفاده از قابلیتهای NLP، رایانهها میتوانند متنی را که به زبان انسان نوشته شده است تجزیه و تحلیل کنند و مفاهیم، موجودیتها، کلمات کلیدی، روابط، احساسات، عواطف و سایر ویژگیها را شناسایی کنند و به کاربران اجازه دهند از محتوا بینش بگیرند. با این قابلیتها، رایانهها همچنین میتوانند متن یا گفتار را برای برقراری ارتباط با کاربران تولید کنند. هر سیستمی که زبان طبیعی را به صورت متن یا گفتار به عنوان ورودی یا خروجی دریافت میکند و قادر به پردازش آن است، از اجزای پردازش زبان طبیعی استفاده میکند. نمونهای از چنین سیستمی، یک سیستم رزرو خودکار برای یک شرکت هواپیمایی است که میتواند تماسهای مشتریان را دریافت کرده و برای آنها پرواز رزرو کند. چنین سیستمی به یک جزء درک زبان طبیعی و یک جزء تولید زبان طبیعی نیاز دارد.
در زیر نمونههایی از کاربردهای هوش مصنوعی مبتنی بر پردازش زبان طبیعی آورده شده است:
- تشخیص دست خط (به عنوان مثال تبدیل یادداشتهای دست نویس به فرم دیجیتال)
- تشخیص گفتار (به عنوان مثال درک معنای سخنان انسان)
- تشخیص هرزنامه (به عنوان مثال استفاده از معنای کلمات در یک پیام ایمیل برای تعیین اینکه آیا آن پیام به عنوان ناخواسته طبقهبندی میشود)
- دستیارهای شخصی دیجیتال و چتباتهای آنلاین که میتوانند از درک زبان طبیعی و تولید زبان طبیعی (از جمله تشخیص گفتار و تولید گفتار) برای ارائه رابطهای کاربری مکالمهای استفاده کنند.
- خلاصهسازی
- تولید متن
- جستجوی محتوا
NLP همچنین در بسیاری از سیستمهای کاربردی مانند چتباتها، سیستمهای تبلیغاتی مبتنی بر محتوا، سیستمهای ترجمه گفتار و سیستمهای آموزش الکترونیکی استفاده میشود.
اجزای پردازش زبان طبیعی
اجزای NLP وظایف مختلفی را انجام میدهند. رایجترین وظایف عبارتند از:
NLU (Natural Language Understanding): واحد NLU متن یا گفتار را به یک توصیف داخلی تبدیل میکند که قرار است معنای ورودی را حمل کند. دشواری از ابهام ذاتی زبانهای طبیعی ناشی میشود: کلمات و جملات ذاتاً چندمعنا هستند، از این رو نتیجه NLU مستعد خطا است.
NLG (Natural Language Generation): واحد NLG یک توصیف داخلی را به متن یا گفتاری تبدیل میکند که برای انسان قابل درک باشد. این کار میتواند شامل تنظیم عبارات باشد تا برای کاربر طبیعیتر به نظر برسد.
POS (Part of Speech): واحد برچسبگذاری POS برای طبقهبندی هر کلمه در ورودی به عنوان یک شیء دستوری استفاده میشود: اینکه آیا اسم، صفت، فعل و غیره است. برچسبگذاری POS نیز تحت تأثیر چندمعنایی قرار میگیرد.
NER (Named Entity Recognition): واحد NER به دنبال شناسایی و برچسبگذاری نامهای دال بر شخص، مکان، سازمان یا نهاد دیگر برای دنبالهای از کلمات در یک جریان متن یا گفتار خواهد بود. بسته به نهاد، اطلاعات بیشتری قابل استخراج است. به عنوان مثال، برای افراد، عنوان یا عملکرد آنها به عنوان مثال مفید است.
پاسخگویی به سؤال
یک جزء پاسخگویی به سؤال سعی میکند مناسبترین پاسخ را به سؤال انسان بدهد. کاربر با استفاده از زبان طبیعی چیزی میپرسد و سیستم به زبان طبیعی پاسخی ارائه میدهد.
MT (Machine Translation): واحد MT به طور خودکار محتوای زبان طبیعی را از یک زبان به زبان دیگر ترجمه میکند. این میتواند از متن به متن، گفتار به متن، گفتار به گفتار یا متن به گفتار اتفاق بیفتد. دشواری از چندمعنایی ناشی میشود، که در آن یک کلمه معانی متعددی دارد، و همچنین از منابع دیگر، مانند ارجاعات بین یا داخل جملات یا مقاصد ناگفته. در بسیاری از موارد، ترجمههای متعددی امکانپذیر است.
OCR (Optical Character Cecognition): واحد OCR به دنبال تبدیل اسناد مکتوب به شکل تصاویر (احتمالاً اسکن شده) به یک توصیف کدگذاری شده دیجیتال از محتوای آنها خواهد بود: متن، جداول، شکلها، عناوین و روابط آنها.
استخراج رابطه: یک جزء استخراج رابطه به وظیفه استخراج روابط بین موجودیتهای نامگذاری شده یا حتی بین هر نهاد در ورودی میپردازد. به عنوان مثال، این جزء میتواند در یک متن ورودی در مورد فیلمهایی که «آل پاچینو» «در» فیلم «سرپیکو» «بازی کرده است» را شناسایی کند.
IR (Information Retrieval): واحد IR یا جستجو به دنبال رفع نیازهای اطلاعاتی کاربر با جستجوی مجموعهای از محتوای بدون ساختار خواهد بود. پرس و جو کاربر که بیانگر نیاز اطلاعاتی آنها است، به طور الگوریتمی با هر عنصر در مجموعه مقایسه میشود تا ارتباط آن با نیاز اطلاعاتی کاربر پیشبینی شود. خروجی این جزء معمولاً به صورت فهرستی از عناصر انتخاب شده که به ترتیب نزولی ارتباط آنها رتبهبندی شدهاند به کاربر ارائه میشود. اجزای بازیابی اطلاعات را میتوان برای طیف وسیعی از انواع مختلف عناصر اطلاعاتی از جمله متن آزاد، اسناد نیمه ساختار یافته، اسناد ساختار یافته، صدا، تصویر و ویدئو و به زبانهای طبیعی مختلف توسعه داد.
تحلیل احساسات: یک جزء تحلیل احساسات به دنبال شناسایی و طبقهبندی محاسباتی نظرات ابراز شده در یک متن، گفتار یا تصویر خواهد بود. به آن داده کاوی نظر نیز میگویند. نمونههایی از جنبههای ذهنی میتواند شامل احساسات مثبت یا منفی باشد.
خلاصهسازی خودکار: یک جزء خلاصهسازی خودکار، اطلاعات مهم را از یک عنصر محتوا با استفاده از یکی از دو رویکرد (یا ترکیبی از آنها) به طور مختصرتر منتقل میکند. خلاصهسازی استخراجی که محتوای مرتبط کلیدی را از محتوای منبع انتخاب میکند تا یک نسخه خلاصه شده کاهش یافته تولید کند. خلاصهسازی انتزاعی که به دنبال سنتز یک متن کوتاهتر جدید است که اطلاعات مربوطه را منتقل میکند. خلاصهسازی انتزاعی مربوط به تولید زبان طبیعی است.
مدیریت گفتگو: یک جزء مدیریت گفتگو به مدیریت مجموعهای از تعاملات بین کاربر و سیستم با هدف بهبود تجربه کاربر با شبیهسازی یک مکالمه زبان طبیعی کمک میکند. مدیریت گفتگو از طیف وسیعی از رویکردها استفاده میکند، از جمله قوانین اعلانی که پاسخها را برای محرکهای ورودی خاص و رویکردهای مبتنی بر یادگیری ماشینی مشخص میکنند. مدیریت گفتگو میتواند تعاملات مبتنی بر متن را هدایت کند، به عنوان مثال برای ارائه یک تجربه مکالمهتر با اجزای پاسخگویی به سؤال یا ادغام با اجزای تشخیص و سنتز گفتار برای پشتیبانی از برنامهها در دستیاران شخصی، نمایندگان خدمات مشتری آنلاین یا رباتیک مراقبت شخصی.
ترجمه ماشینی
ترجمه ماشینی یک کار NLP است که در آن از یک سیستم کامپیوتری برای ترجمه خودکار متن یا گفتار از یک زبان طبیعی به زبان دیگر استفاده میشود.
به طور کلی فرآیند ترجمه توسط انسان در دو مرحله انجام می شود. مرحله اول رمزگشایی معنای زبان مبدا است. مرحله دوم کدگذاری مجدد معنی به زبان مقصد است. این فرآیند مستلزم دانش عمیق از دستور زبان، معناشناسی، نحو، اصطلاحات، پیشینه فرهنگی و سایر حوزه ها است.
چالشهای فنی برای ترجمه ماشینی شامل حواس چندگانه کلمه، ملاحظات زمینهای، تفاوتهای دستوری و زبانهایی است که از سیستمهای نوشتاری مبتنی بر لوگرام استفاده میکنند. رویکردهای زیادی برای ترجمه ماشینی وجود داشته است، مانند مبتنی بر قاعده، مبتنی بر مثال، آماری، عصبی یا ترکیبی از آنها.
در سالهای اخیر، از شبکههای عصبی برای انجام ترجمه ماشینی استفاده شده است که منجر به پیشرفتهای چشمگیری در روانی و دقت ترجمه شده است. از طریق یادگیری عمیق، مدل را میتوان برای عبارات خاص دامنه آموزش داد و سفارشی کرد تا به سطوح دقت بالایی دست یابد.
سنتز گفتار
آیا تا به حال به این فکر کردهاید که چگونه یک کامپیوتر میتواند متنی را که شما تایپ میکنید، به صورت صدای طبیعی بخواند؟ این همان کاری است که سیستمهای متن به گفتار (Text-to-Speech یا TTS) انجام میدهند. این سیستمها پل ارتباطی بین دنیای نوشتار و دنیای گفتار هستند و کاربردهای بسیار متنوعی دارند، از تولید کتابهای صوتی گرفته تا کمک به افراد نابینا برای دسترسی به اطلاعات.
سه مرحله اصلی در تبدیل متن به صدا
برای تبدیل یک متن به صدا، سیستمهای TTS از سه مرحله اصلی عبور میکنند:
- تجزیه و تحلیل متن: در این مرحله، کامپیوتر متن را جوری بررسی میکند که انگار یک انسان آن را میخواند. کلمات را شناسایی میکند، ساختار جمله را درک میکند و حتی لحن مناسب برای هر جمله را تعیین میکند. برای مثال، اگر جملهای سوالی باشد، کامپیوتر میفهمد که باید با لحن پرسشی آن را بیان کند.
- مدلسازی صدا: در این مرحله، کامپیوتر سعی میکند صدای انسان را تقلید کند. با استفاده از مدلهای ریاضی پیچیده، کامپیوتر الگوهای موجود در گفتار انسان را یاد میگیرد. این الگوها شامل نحوه تلفظ حروف، آهنگ کلمات و مکثهای طبیعی در گفتار هستند.
- تولید صدا: در آخرین مرحله، کامپیوتر با استفاده از مدلهای ساخته شده در مرحله قبل، صدای متناظری برای متن ورودی تولید میکند. این صدا باید تا حد ممکن طبیعی و قابل فهم باشد.
- طبیعی بودن صدا: صدای تولید شده باید به صدای انسان واقعی شباهت داشته باشد. هیچ کس دوست ندارد یک صدای رباتیک و مصنوعی بشنود.
- وضوح صدا: صدا باید به اندازه کافی واضح باشد تا به راحتی قابل فهم باشد. اگر صدا مبهم یا نویزی باشد، شنونده نمیتواند پیام را به درستی دریافت کند.
برای تولید صدا، روشهای مختلفی وجود دارد. برخی از این روشها عبارتند از:
- سنتز الحاقی: در این روش، قطعات کوچکی از صدای ضبط شده یک انسان واقعی کنار هم قرار میگیرند تا کلمات و جملات جدیدی ساخته شود. این روش ساده است اما ممکن است صدای تولید شده کمی مصنوعی به نظر برسد.
- سنتز فورمنت: در این روش، از مدلهای ریاضی برای شبیهسازی مجرای صوتی انسان استفاده میشود. این روش صدای طبیعیتری تولید میکند اما پیادهسازی آن پیچیدهتر است.
با پیشرفت تکنولوژی یادگیری عمیق، سیستمهای TTS به پیشرفتهای چشمگیری دست یافتهاند. برخی از سیستمهای مبتنی بر شبکههای عصبی عمیق (DNN) قادرند صدایی تولید کنند که تقریباً از صدای انسان قابل تشخیص نیست.
تشخیص گفتار
این مقاله تشخیص گفتار را به عنوان تبدیل، توسط یک واحد عملکردی، یک سیگنال گفتار به نمایشی از محتوای گفتار تعریف میکند. گفتار دیجیتالی شده نوعی داده متوالی است، به طوری که از تکنیکهایی که میتوانند دادههای مرتبط با یک بازه زمانی را مدیریت کنند، میتوان برای پردازش واجها از گفتار استفاده کرد.
چندین رویکرد با استفاده از شبکههای عصبی برای تشخیص گفتار استفاده شده است. یک رویکرد شامل استفاده از LSTM ها است. این روش به یک شبکه عصبی اجازه میدهد تا بدون ترکیب با فرآیندهای دیگر مانند مدلهای مارکوف پنهان HMM آموزش داده شود و به عنوان یک راه حل تشخیص گفتار مستقر شود و منجر به عملکرد تشخیص معقول شود.
در زیر نمونههایی از کاربردهای هوش مصنوعی مبتنی بر تشخیص گفتار آورده شده است:
- سیستم های فرمان صوتی
- دیکته دیجیتال
- دستیاران شخصی
پاسخگویی به سوال
سیستمهای پاسخگویی به سؤال میتوانند تعداد زیادی صفحه متن را دریافت کرده و از فناوری پاسخگویی به سؤال برای پاسخ به سؤالات مطرح شده توسط انسان به زبان طبیعی استفاده کنند. این رویکرد به افراد این امکان را میدهد تا «بپرسند» و تقریباً آنی به سؤالات پیچیده پاسخ دهند. فناوری پاسخگویی به سؤال که با سایر API ها و تجزیه و تحلیل پیشرفته ترکیب شده است، با ارائه یک تجربه کاربری تعاملیتر، خود را از جستجوی معمولی (که توسط کلمات کلیدی فعال میشود) متمایز میکند.
داده کاوی
داده کاوی به کاربرد الگوریتمها برای کشف اطلاعات معتبر، بدیع و مفید از دادهها اشاره دارد. در اواخر دهه 1990 برجسته شد و به عنوان متمایز از روشهای آماری قبلی شناخته شد. آمار سنتی بر جمعآوری دادههای لازم و کافی برای پاسخ قطعی به یک سوال خاص متمرکز بود. معمولاً برای تغییر کاربری دادهها برای یافتن پاسخهای تقریبی یا تناسبهای احتمالی با الگوها اعمال میشد. تحلیل داده به عنوان مرحله مدلسازی الگوریتمی در فرآیند کامل KDD در نظر گرفته میشود. یک کنسرسیوم که از تلاشهای اولیه داده کاوی بیرون آمد، توانست تمام مراحل داده کاوی را با جزئیات در استاندارد صنعتی CRISP-DM که در سال 2000 منتشر شد، شرح دهد. این علم شامل طیف وسیعی از تکنیکها از جمله درختان تصمیم، خوشهبندی و طبقهبندی است. همانطور که فناوریهای کلان داده در اواسط دهه 2000 ظهور کردند، کاربرد الگوریتمها دیگر قابل تفکیک از ذخیرهسازی دادهها نبود و نمونهبرداری دقیق جای خود را به پردازش سریع دادهها داد. این تغییرات منجر به توصیف جدیدی از نسخه دادههای بزرگ فرآیند چرخه عمر KDD به عنوان فعالیتهای علم داده شد. اگرچه KDD و کشف دانش اصطلاحات رایجی در هوش مصنوعی هستند، اما آنچه یک کامپیوتر تولید میکند دانش نیست، اطلاعات است.
برنامه ریزی
برنامه ریزی یک زیرشاخه از هوش مصنوعی است. برای کاربردهای صنعتی حیاتی است و در بسیاری از زمینههای تجاری مانند مدیریت ریسک، مراقبتهای بهداشتی، رباتهای مشارکتی صنعتی، امنیت سایبری، دستیاران شناختی و دفاع اهمیت دارد.
با وجود برنامه ریزی، ماشین را قادر میسازد تا به طور خودکار یک توالی رویهای از اقدامات را برای دستیابی به اهداف خاص در حین بهینهسازی معیارهای عملکرد خاص پیدا کند. از منظر برنامه ریزی، یک سیستم در یک حالت خاص قرار دارد. اجرای یک عمل میتواند وضعیت سیستم را تغییر دهد و توالی اقدامات پیشنهادی توسط برنامه ریزی میتواند سیستم را از حالت اولیه به حالت هدف نزدیکتر کند.
کاربردهای سیستم های هوش مصنوعی
از آنجایی که سیستمهای هوش مصنوعی قادر به کمک یا در برخی موارد خودکارسازی تصمیمگیری، ارائه توصیهها و کمک به خودکارسازی وظایف خاص هستند. کاربردهایی در صنایع مختلف از جمله:
- کشاورزی و زراعت
- خودرو
- بانکداری و فناوری مالی
- دفاع
- آموزش
- انرژی
- مراقبت های بهداشتی
- قانون
- تولید
- رسانه و سرگرمی
- واقعیت مخلوط
- بخش عمومی
- خرده فروشی و بازاریابی
- امنیت
- فناوری فضایی
- ارتباطات از راه دور
نمونههایی از کاربردهای هوش مصنوعی در 10.2 تا 10.4 ارائه شده است.
کشف تقلب
تقلب استفاده از فریب برای کسب سود است. تقلب در بسیاری از حوزه ها از جمله:
- پول و اسناد جعلی
- کارت های اعتباری و اسناد مسروقه
- ارتباطات شخصی مانند ایمیل
- هویت های جعلی یا دزدیده شده
در زیر نمونههایی از کاربردهای هوش مصنوعی در کشف تقلب آورده شده است:
- شناسایی هزینه های جعلی کارت اعتباری
- تشخیص درخواست های وام یا اعتبار جعلی
- بازرسی ادعاهای بیمه ای جعلی
- شناسایی دسترسی غیرمجاز به حساب
وسایل نقلیه خودکار
پیشبینی میشود که وسایل نقلیه بدون راننده رایج شوند. امروزه بسیاری از فناوریهای کمکی هوش مصنوعی به عنوان ویژگیهای کمکی راننده در خودروها اعمال میشوند. در زیر نمونههایی از کاربردهای هوش مصنوعی در وسایل نقلیه آورده شده است:
- مسیریابی بهینه (به عنوان مثال یافتن سریعترین مسیر با توجه به شرایط ترافیکی فعلی)
- تغییر خط خودکار
- اجتناب از اشیاء (به عنوان مثال دستکاری خودکار ترمز، دریچه گاز و فرمان بر اساس تفسیر سیگنال ها از دوربین ها و سنسورهای تشخیص نور و محدوده)
- سفر کاملاً خودکار از نقطه A به نقطه B
وسایل نقلیه خودکار به فناوریهای هوش مصنوعی مانند بینایی ماشین و برنامهریزی متکی هستند.
نگهداری و تعمیرات (نت)
برخلاف تعمیر و نگهداری پیشگیرانه، که در آن تعمیر و نگهداری بر اساس امید به زندگی اجزا (به عنوان مثال میانگین زمان بین خرابی) است، تعمیر و نگهداری پیشبینی، سرویس یا تعویض اجزا را بر اساس مشاهدات رفتار یا عملکرد فعلی آنها و طول عمر مورد انتظار اجزا ارائه میدهد. در زیر نمونههایی از کاربردهای هوش مصنوعی در نگهداری پیشبینی آورده شده است:
- تشخیص حفره های زیر ریل راه آهن (که می تواند منجر به خروج از ریل شود)
- شناسایی آسفالت ترک خورده یا آسیب دیده
- بازبینی یاتاقان های معیوب در موتورهای الکتریکی
- تشخیص نوسانات غیر عادی برق در سیستم های برق رسانی
مراجع
این مقاله از استاندارد ISO 22989:2022 برداشت شده است.
برای مطالعه بیشتر: