هوش مصنوعی چیست؟ مفاهیم و اصطلاحات

هوش مصنوعی چیست؟

آنچه در این مقاله می خوانید ...

هوش مصنوعی، یا AI، دیگر صرفاً یک مفهوم آینده‌نگر نیست. این فناوری به بخشی جدایی‌ناپذیر از زندگی روزمره ما تبدیل شده است. این مقاله به جای ارائه یک تعریف کلی، به عمق این فناوری پیچیده می‌رود و مفاهیم اساسی آن را به زبانی ساده و قابل فهم توضیح می‌دهد. اینکه هوش مصنوعی چیست؟ چگونه کار می‌کند؟ و چه تأثیری بر زندگی ما دارد؟ 

پیشرفت‌های چشمگیر در زمینه محاسبات، دسترسی به حجم عظیمی از داده‌ها و توسعه الگوریتم‌های پیچیده، هوش مصنوعی را به یک ابزار قدرتمند تبدیل کرده است. این فناوری ریشه در علوم مختلفی مانند کامپیوتر، ریاضیات، و حتی علوم انسانی دارد و به طور مداوم در حال تکامل است.

هوش مصنوعی به ما امکان می‌دهد تا ماشین‌هایی بسازیم که بتوانند یاد بگیرند، استدلال کنند و تصمیم بگیرند. اما هدف از توسعه آن تنها شبیه‌سازی انسان نیست. بلکه هدف اصلی، ایجاد ابزارهایی است که بتوانند به ما در حل مشکلات پیچیده کمک کنند و زندگی ما را بهبود بخشند.

در این مقاله که از مطالب استاندارد برداشت شده است، مفاهیم کلیدی هوش مصنوعی مانند یادگیری ماشین، یادگیری عمیق، و پردازش زبان طبیعی را بررسی می‌کنیم. همچنین به کاربردهای مختلف در صنایع مختلف از جمله پزشکی، مالی، و حمل‌ونقل می‌پردازیم.

هدف ما از نگارش این مقاله، ارائه یک دیدگاه جامع و روشن برای طیف گسترده‌ای از مخاطبان است. چه شما یک متخصص کامپیوتر باشید و چه به عنوان یک کاربر عادی از فناوری استفاده کنید، این مقاله می‌تواند به شما در درک بهتر این فناوری کمک کند.

هوش مصنوعی: مروری بر مفاهیم بنیادی

Artificial Intelligence (AI) یک حوزه بین‌رشته‌ای است که به توسعه سیستم‌های کامپیوتری می‌پردازد تا بتوانند کارهایی را انجام دهند که معمولاً به هوش انسانی نیاز دارند. این سیستم‌ها با هدف درک محیط اطراف خود و انجام اقداماتی طراحی می‌شوند که به آن‌ها در دستیابی به اهدافشان کمک کند.  در حقیقت، ترکیبی از علوم مختلف مانند کامپیوتر، ریاضیات، فلسفه و روانشناسی در توسعه این دانش جدید بهره برده است.

سیستم‌های هوش مصنوعی به طور کلی ویژگی‌های متمایزی نسبت به سیستم‌های سنتی دارند:

  • تعامل‌پذیری: این سیستم‌ها با محیط خود تعامل دارند. به عنوان مثال، می‌توانند تصاویر را دریافت کنند و اشیاء موجود در آن‌ها را شناسایی نمایند.
  • استفاده از منابع متنوع: AI می‌تواند از انواع مختلف داده‌ها، از جمله داده‌های ساختاریافته و غیرساختاریافته، برای انجام وظایف خود استفاده کند.
  • سطح کنترل انسانی: میزان دخالت انسان در کنترل این سیستم‌ها می‌تواند متفاوت باشد. مثلاً، خودروهای خودران با سطوح مختلف اتوماسیون طراحی می‌شوند.
  • قابلیت یادگیری: برخی از سیستم‌های هوش مصنوعی قادر به یادگیری از داده‌های جدید هستند و عملکرد خود را بهبود می‌بخشند.

به طور خلاصه، هوش مصنوعی به دنبال ساخت ماشین‌هایی است که بتوانند فکر کنند، یاد بگیرند و تصمیم بگیرند. این فناوری در حال حاضر در بسیاری از زمینه‌ها از جمله پزشکی، مالی و حمل‌ونقل کاربرد دارد و انتظار می‌رود در آینده نقش پررنگ‌تری در زندگی انسان ایفا کند.

انواع هوش مصنوعی

بحث بر سر ماهیت هوش مصنوعی همواره یکی از جذاب‌ترین مباحث در حوزه فناوری بوده است. آیا ماشین‌ها می‌توانند واقعاً فکر کنند و احساس کنند؟ این پرسش به دو دسته اصلی منجر شده است:

ضعیف و قوی

هوش مصنوعی ضعیف (Weak AI) به سیستم‌هایی گفته می‌شود که توانایی انجام وظایف مشخصی را دارند، بدون اینکه درک عمیقی از کاری که انجام می‌دهند داشته باشند. این سیستم‌ها در واقع ابزارهایی قدرتمند برای حل مسائل خاص هستند. برای مثال، یک سیستم تشخیص تصویر که می‌تواند اشیاء را در یک عکس شناسایی کند.

در مقابل، هوش مصنوعی قوی (Strong AI) به سیستم‌هایی اشاره دارد که دارای هوش عمومی هستند و قادر به انجام طیف گسترده‌ای از وظایف هستند، درست مانند انسان. این نوع هوش هنوز بیشتر در حوزه تئوری و داستان‌های علمی‌تخیلی قرار دارد.

خاص و عام

  • هوش مصنوعی خاص (Narrow) به سیستم‌هایی گفته می‌شود که برای انجام یک کار خاص طراحی شده‌اند و در آن کار بسیار ماهر هستند. اکثر سیستم‌های موجود در حال حاضر در این دسته قرار می‌گیرند.
  • هوش مصنوعی عام (General) به سیستم‌هایی اشاره دارد که قادر به یادگیری و انجام هر کاری هستند که یک انسان می‌تواند انجام دهد. که این نوع، یک هدف بلندمدت برای محققان است.

پارادایم عامل: چارچوبی برای هوش مصنوعی

پارادایم عامل (Agent)، یک رویکرد بنیادی در هوش مصنوعی است که به بررسی و ساخت سیستم‌های هوشمند می‌پردازد. در این پارادایم، سیستم‌های هوشمند به عنوان عامل‌هایی در نظر گرفته می‌شوند که در یک محیط مشخص عمل کرده و با آن تعامل دارند. هر عامل دارای سنسورهایی برای درک محیط، اکتورهایی برای انجام عمل و یک واحد تصمیم‌گیری برای انتخاب بهترین اقدام است. عامل‌ها با هدف رسیدن به اهداف مشخصی عمل می‌کنند و می‌توانند به صورت مستقل یا در تعامل با سایر عامل‌ها فعالیت کنند. این پارادایم به دلیل انعطاف‌پذیری بالا، قابلیت توزیع‌شدن و امکان خودکارسازی بسیاری از وظایف، به عنوان یکی از رویکردهای اصلی در توسعه هوش مصنوعی مورد توجه قرار گرفته است. کاربردهای پارادایم عامل در حوزه‌های مختلفی مانند رباتیک، سیستم‌های خبره، بازی‌های رایانه‌ای و شبکه‌های اجتماعی بسیار گسترده است.

پارادایم عامل هوش مصنوعی
پارادایم عامل (Agent)

عامل هوش مصنوعی و تعامل با محیط

یک عامل هوش مصنوعی را می‌توان مانند یک ربات هوشمند تصور کرد که با دنیای اطرافش ارتباط برقرار می‌کند. این ربات با استفاده از حسگرهایش محیط را می‌بیند و با استفاده از محرک‌هایش در آن عمل می‌کند. هدف اصلی یک عامل این است که با انجام کارهای درست، به اهدافش برسد.

دنیایی که یک عامل در آن فعالیت می‌کند، می‌تواند بسیار ساده یا بسیار پیچیده باشد. هرچه محیط پیچیده‌تر باشد، عامل باید هوشمندتر باشد تا بتواند تصمیمات بهتری بگیرد.

به طور کلی، عامل‌های هوش مصنوعی را می‌توان به چهار دسته اصلی تقسیم کرد:

  • عامل‌های ساده: این عامل‌ها فقط به شرایط فعلی نگاه می‌کنند و براساس آن تصمیم می‌گیرند. مثلاً یک جاروبرقی روباتیک که فقط به سنسورهای برخوردش تکیه می‌کند تا از برخورد با موانع جلوگیری کند.
  • عامل‌های مدل‌ساز: این عامل‌ها علاوه بر شرایط فعلی، به یاد می‌آورند که در گذشته چه اتفاقاتی افتاده است و از این اطلاعات برای پیش‌بینی آینده استفاده می‌کنند. مثلاً یک خودروی خودران که با استفاده از دوربین‌ها و سنسورهایش، محیط اطراف را مدل‌سازی می‌کند و تصمیم می‌گیرد که چگونه رانندگی کند.
  • عامل‌های هدفمند: این عامل‌ها اهداف مشخصی دارند و سعی می‌کنند با انجام کارهای مختلف به آن اهداف برسند. مثلاً یک رباتی که وظیفه دارد یک جعبه را از نقطه A به نقطه B ببرد.
  • عامل‌های یادگیرنده: این عامل‌ها می‌توانند از تجربه‌های خود یاد بگیرند و با گذشت زمان بهتر عمل کنند. مثلاً یک برنامه شطرنج که با بازی کردن با انسان‌ها، مهارت‌های خود را بهبود می‌بخشد.

دانشمندان کامپیوتر روش‌های مختلفی برای ساخت عامل‌های هوش مصنوعی پیدا کرده‌اند و هر روزه در حال پیشرفت این فناوری هستند.

دانش در هوش مصنوعی

در دنیای هوش مصنوعی، کلمه “دانش” معنای خاصی پیدا می‌کند. این معنا با دانش معمول که ما در زندگی روزمره از آن استفاده می‌کنیم، کمی متفاوت است.

در هوش مصنوعی، دانش به اطلاعاتی گفته می‌شود که سیستم از داده‌های خام استخراج می‌کند و به شکلی سازمان‌یافته و قابل فهم ذخیره می‌کند. این دانش می‌تواند شامل قوانین، الگوها، یا مدل‌های مختلفی باشد که به سیستم کمک می‌کند تا مشکلات را حل کند یا تصمیمات بگیرد.

به عبارت ساده‌تر، داده خام مثل یک قطعه از پازل است و دانش، پازل تکمیل شده. این دانش می‌تواند به شکل‌های مختلفی نمایش داده شود، اما مهم این است که معنای اصلی آن حفظ شود.

برای مثال، یک سیستم هوش مصنوعی که به تشخیص چهره آموزش دیده است، می‌تواند هزاران عکس از چهره افراد مختلف را به عنوان داده دریافت کند. با پردازش این داده‌ها، سیستم قادر خواهد بود ویژگی‌های مشترک چهره انسان‌ها را شناسایی کند و این دانش را برای تشخیص چهره‌های جدید به کار ببرد.

تفاوت‌های کلیدی بین داده، اطلاعات و دانش در هوش مصنوعی:

  • داده: اعداد، متن، تصاویر یا هر نوع اطلاعات خام دیگری که هنوز پردازش نشده است.
  • اطلاعات: داده‌هایی که سازماندهی شده و معنی‌دار شده‌اند. مثلاً یک جدول از اعداد فروش یک محصول.
  • دانش: اطلاعاتی که به صورت ساختاریافته و قابل استفاده برای حل مسائل یا تصمیم‌گیری درآمده است. مثلاً الگویی که نشان می‌دهد افزایش قیمت یک محصول باعث کاهش فروش آن می‌شود.

چرا این تفاوت‌ها مهم هستند؟

درک تفاوت بین داده، اطلاعات و دانش برای توسعه سیستم‌های هوش مصنوعی بسیار مهم است. زیرا بسیاری از روش‌ها و الگوریتم‌های هوش مصنوعی به این مفاهیم وابسته هستند. برای مثال، سیستم‌های یادگیری ماشین از روی داده‌ها یاد می‌گیرند و دانش جدیدی تولید می‌کنند.

انواع محاسبات

شناخت و محاسبات شناختی

شناخت (Cognition) به معنای توانایی یادگیری، درک، تفکر و تصمیم‌گیری است. این توانایی در انسان‌ها وجود دارد و ما از آن برای انجام کارهای روزمره خود استفاده می‌کنیم. شناخت شامل کسب و پردازش دانش از طریق استدلال، تجربه انحصاری یا مشترک، یادگیری و درک است. این شامل مفاهیمی مانند توجه، شکل‌گیری دانش، حافظه، قضاوت و ارزیابی، استدلال و محاسبه، حل مسئله و تصمیم‌گیری، درک و تولید زبان می‌شود.

محاسبات شناختی (Cognitive computing) یکی از زیر شاخه‌های هوش مصنوعی است. هدف آن پیاده‌سازی شناخت با استفاده از قابلیت‌هایی مانند شناسایی الگو از پردازش حجم عظیمی از اطلاعات است. این امکان را برای افراد فراهم می‌کند تا به طور طبیعی‌تر با ماشین‌ها تعامل کنند. وظایف محاسبات شناختی با یادگیری ماشین (Machine Learning)، پردازش گفتار(speech processing)، پردازش زبان طبیعی (Natural Language Processing)، بینایی ماشین (Machine Vision) و رابط‌های انسان و ماشین مرتبط هستند.

در کل، هدف محاسبات شناختی این است که ماشین‌ها را به ابزارهای قدرتمندی تبدیل کند که بتوانند به ما در حل مشکلات و بهبود کیفیت زندگی کمک کنند.

محاسبات معنایی

محاسبات معنایی (Semantic computing) به تطبیق معنای محتوای محاسباتی با اهداف انسان می‌پردازد. این روش نمایش‌هایی برای توصیف اطلاعات ارائه می‌دهد و از این نمایش‌ها برای بازیابی، مدیریت، دستکاری و ایجاد محتوا (مانند متن، ویدئو، صدا، فرآیند، عملکرد، دستگاه و شبکه) استفاده می‌کند. توصیف معنایی محتوا امکان کاهش عدم قطعیت در فرآیندهای شناختی و استدلال منطقی بر روی اطلاعات را فراهم می‌کند. این به نوبه خود به غنی‌سازی، رفع تعارض، خلاصه‌سازی و مقایسه اطلاعات کمک می‌کند. بنابراین، محاسبات معنایی رویکردی است که اطلاعات قبلی و یادگیری را ترکیب می‌کند.

محاسبات نرم

محاسبات نرم (Soft Computing) روشی است که با بهره‌گیری از تکنیک‌هایی مانند سیستم‌های فازی، الگوریتم‌های تکاملی و شبکه‌های عصبی، به حل مسائل پیچیده‌ای می‌پردازد که در آن‌ها عدم قطعیت، ابهام و اطلاعات ناقص وجود دارد. برخلاف روش‌های محاسباتی سنتی که به دنبال یافتن پاسخ‌های دقیق و قطعی هستند، محاسبات نرم با پذیرش وجود ابهام در دنیای واقعی، راه‌حل‌هایی تقریبی و انعطاف‌پذیر ارائه می‌دهد. این رویکرد به ویژه در مواردی که یافتن پاسخ دقیق بسیار دشوار یا حتی غیرممکن است، بسیار مفید واقع می‌شود و به ما اجازه می‌دهد تا با پیچیدگی‌های دنیای واقعی بهتر کنار بیاییم.

در جدول زیر به مقایسه محاسبات معنایی و نرم می پردازیم:

  محاسبات معنایی محاسبات نرم
هدف درک معنا حل مسائل پیچیده
تمرکز ساختارهای معنایی تکنیک‌های تحمل عدم قطعیت
کاربرد جستجوی اطلاعات، پردازش زبان طبیعی سیستم‌های کنترل، تشخیص الگو
مثال‌ موتورهای جستجوی معنایی سیستم‌های فازی
جدول مقایسه محاسبات معنایی و محاسبات نرم

الگوریتم ژنتیک

الگوریتم‌های ژنتیک، الهام گرفته از فرایند تکامل طبیعی، برای حل مسائل بهینه‌سازی به کار می‌روند. در این الگوریتم‌ها، مجموعه‌ای از پاسخ‌های احتمالی (کروموزوم‌ها) ایجاد شده و طی نسل‌های متعدد، با اعمال عملیاتی مانند انتخاب، ترکیب و جهش، به سمت پاسخ بهینه تکامل می‌یابند. هر کروموزوم به صورت یک رشته از اعداد باینری نمایش داده می‌شود و برازندگی آن (نزدیکی به پاسخ بهینه) محاسبه می‌شود. کروموزوم‌های با برازندگی بالاتر، احتمال بیشتری برای تولید نسل بعدی دارند. با تکرار این فرایند، الگوریتم به تدریج به پاسخ بهینه‌تری نزدیک می‌شود.

رویکردهای حل مسئله در هوش مصنوعی

در هوش مصنوعی، دو رویکرد اصلی برای حل مسائل وجود دارد: نمادین و زیرنمادین.

رویکرد نمادین (Symbolic)، دانش را به صورت نمادها و ساختارهای منطقی نمایش می‌دهد. این رویکرد شبیه به شیوه تفکر انسان است که مفاهیم را به صورت نمادها و عبارات در ذهن خود سازماندهی می‌کند. برای مثال، در یک سیستم خبره، قوانین و دانش به صورت جملات منطقی بیان می‌شوند.

رویکرد زیرنمادین (Sub-Symbolic)، بر خلاف رویکرد نمادین، از نمایش‌های صریح و نمادین استفاده نمی‌کند. بلکه، دانش به صورت ضمنی در ساختارهای شبکه‌ای مانند شبکه‌های عصبی ذخیره می‌شود. این رویکرد به سیستم اجازه می‌دهد تا الگوها را در داده‌ها بیابد و بدون نیاز به برنامه‌نویسی صریح قوانین، تصمیم‌گیری کند. برای مثال، در شبکه‌های عصبی، دانش از طریق آموزش بر روی داده‌های بزرگ به دست می‌آید.

در واقعیت، بسیاری از سیستم‌های هوش مصنوعی مدرن، ترکیبی از این دو رویکرد هستند. این سیستم‌ها از مزایای هر دو رویکرد بهره‌مند می‌شوند و می‌توانند مسائل پیچیده‌تری را حل کنند. به عنوان مثال، یک سیستم ترجمه ماشینی می‌تواند از یک مدل زبان بزرگ (که بر اساس رویکرد زیرنمادین است) برای درک معنای جمله استفاده کند و سپس از قوانین دستوری (که بر اساس رویکرد نمادین است) برای تولید جمله ترجمه شده استفاده کند.

به طور خلاصه، رویکرد نمادین به ما اجازه می‌دهد تا دانش را به صورت صریح و قابل فهم نمایش دهیم، در حالی که رویکرد زیرنمادین به ما اجازه می‌دهد تا الگوهای پیچیده را در داده‌ها بیابیم. هر دو رویکرد نقش مهمی در پیشرفت هوش مصنوعی دارند و انتخاب بهترین رویکرد به مسئله مورد نظر بستگی دارد.

داده: سوخت محرک هوش مصنوعی

درست همان‌طور که انسان‌ها برای یادگیری به تجربیات و اطلاعات نیاز دارند، سیستم‌های هوش مصنوعی نیز برای یادگیری و بهبود عملکرد خود به حجم عظیمی از داده‌ها وابسته‌اند. این داده‌ها می‌توانند از منابع مختلفی مانند سنسورها، پایگاه‌های داده، شبکه‌های اجتماعی و اینترنت جمع‌آوری شوند.

فرآیند استفاده از داده در هوش مصنوعی

استفاده از داده در هوش مصنوعی به طور کلی شامل مراحل زیر است:

  1. جمع‌آوری داده:
    • تنوع داده‌ها: داده‌ها می‌توانند ساخت‌یافته (مانند داده‌های موجود در پایگاه‌های داده) یا بدون ساختار (مانند متن، تصاویر، صوت) باشند.
    • حجم داده‌ها: مقدار داده‌ها بسیار مهم است. هرچه داده‌ها بیشتر باشد، مدل هوش مصنوعی می‌تواند الگوهای پیچیده‌تری را شناسایی کند.
    • کیفیت داده‌ها: دقت، کامل بودن و مرتبط بودن داده‌ها بسیار مهم است. داده‌های نادرست یا ناقص می‌توانند به نتایج نادرست منجر شوند.
  2. آماده‌سازی داده:
    • تمیز کردن داده‌ها: حذف داده‌های تکراری، نادرست یا گم‌شده.
    • تبدیل داده‌ها: تبدیل داده‌ها به فرمتی که مدل هوش مصنوعی بتواند از آن استفاده کند.
    • نمونه‌برداری: انتخاب یک نمونه نماینده از داده‌ها برای آموزش مدل.
  3. آموزش مدل:
    • انتخاب الگوریتم: انتخاب الگوریتم مناسب برای مسئله مورد نظر (مثلاً شبکه‌های عصبی، درخت تصمیم، ماشین بردار پشتیبان).
    • آموزش مدل: استفاده از داده‌های آموزشی برای آموزش مدل و یادگیری الگوهای موجود در داده‌ها.
  4. ارزیابی مدل:
    • دقت مدل: ارزیابی دقت مدل در پیش‌بینی نتایج بر روی داده‌های جدید.
    • تعمیم‌پذیری مدل: بررسی توانایی مدل در تعمیم دادن نتایج به داده‌های دیده نشده.
  5. بهره‌برداری از مدل:
    • استقرار مدل: قرار دادن مدل در یک محیط عملیاتی برای استفاده.
    • نظارت بر مدل: نظارت بر عملکرد مدل در طول زمان و به‌روزرسانی آن در صورت لزوم.

اهمیت کیفیت داده‌ها در هوش مصنوعی

کیفیت داده‌ها به طور مستقیم بر عملکرد مدل هوش مصنوعی تأثیر می‌گذارد. داده‌های با کیفیت پایین می‌توانند به نتایج نادرستی منجر شوند. برخی از عوامل مهم در کیفیت داده‌ها عبارتند از:

  • دقت: داده‌ها باید دقیق و عاری از خطا باشند.
  • کامل بودن: داده‌ها باید کامل و بدون داده‌های گم‌شده باشند.
  • مرتبط بودن: داده‌ها باید مرتبط با مسئله مورد نظر باشند.
  • نمایندگی: داده‌ها باید نماینده جمعیت کلی باشند.
  • تعادل: توزیع داده‌ها باید متعادل باشد.

چالش‌های مربوط به داده‌ها در هوش مصنوعی

  • حجم زیاد داده‌ها: مدیریت و پردازش حجم عظیمی از داده‌ها می‌تواند چالش‌برانگیز باشد.
  • کیفیت پایین داده‌ها: داده‌های نادرست یا ناقص می‌توانند به نتایج نادرست منجر شوند.
  • حریم خصوصی داده‌ها: جمع‌آوری و استفاده از داده‌های شخصی می‌تواند مسائل اخلاقی ایجاد کند.
  • سوگیری داده‌ها: داده‌های مغرضانه می‌توانند به مدل‌های مغرضانه منجر شوند.

 با درک اهمیت کیفیت داده‌ها و فرآیندهای مختلف استفاده از داده‌ها، می‌توانیم مدل‌های هوش مصنوعی دقیق‌تر و کارآمدتری ایجاد کنیم. برخی اصطلاحات مرتبط با داده عبارتند از:

  • جمع آوری داده (Data Acquisition)، که در آن داده ها از یک یا چند منبع به دست می آیند. داده ها را می توان از داخل سازمان تهیه کرد یا از خارج وارد کرد. مناسب بودن داده ها باید مورد ارزیابی قرار گیرد، برای مثال، اینکه آیا این داده ها به جهاتی مغرضانه هستند یا به اندازه کافی گسترده هستند که نمایانگر ورودی داده های عملیاتی مورد انتظار باشد.
  • تجزیه و تحلیل داده ها (Data Analysis)، که در آن ویژگی های داده ها برای الگوها، روابط، روندها و نقاط پرت بررسی می شوند. چنین تحلیلی می تواند مراحل بعدی مانند آموزش و تأیید را راهنمایی کند.
  • حاشیه نویسی داده ها (Data Annotation)، که در آن عناصر مهم داده ها به عنوان ابرداده اضافه می شوند (به عنوان مثال اطلاعات مربوط به منشأ داده یا برچسب هایی برای کمک به آموزش یک مدل).
  • آماده سازی داده ها (Data Preparation)، که در آن داده ها به شکلی قرار می گیرند که می تواند توسط سیستم هوش مصنوعی استفاده شود.
  • فیلتر کردن داده ها (Data Filtering)، که حذف داده های ناخواسته است. اثرات فیلترینگ باید به دقت مورد بررسی قرار گیرد تا از معرفی سوگیری ناخواسته و سایر مسائل جلوگیری شود.
  • نرمال سازی (Normalization)، که عبارت است از تنظیم مقادیر داده ها در یک مقیاس مشترک به طوری که آنها از نظر ریاضی قابل مقایسه باشند.
  • حذف هویت (De-identification) فرآیندی است که طی آن اطلاعات شخصی قابل شناسایی (PII) از داده‌ها حذف یا تغییر می‌یابد تا حریم خصوصی افراد محافظت شود. اطلاعات شخصی قابل شناسایی به هرگونه اطلاعاتی گفته می‌شود که بتوان از طریق آن یک شخص خاص را شناسایی کرد، مانند نام، آدرس، شماره ملی، آدرس ایمیل یا داده‌های بیومتریک.
  • بررسی کیفیت داده ها (data quality checking)، که در آن محتویات داده ها از نظر کامل بودن، برای سوگیری و سایر عواملی که بر سودمندی آن برای سیستم هوش مصنوعی تأثیر می گذارد، بررسی می شود. بررسی مسمومیت داده‌ها برای اطمینان از اینکه داده‌های آموزشی با داده‌هایی که می‌تواند پیامدهای مضر یا نامطلوب ایجاد کند آلوده نشده باشد، بسیار مهم است.
  • نمونه‌ برداری داده‌ها (Data Smpling)، که در آن یک زیرمجموعه نماینده داده‌ها استخراج می‌شود.
  • افزایش داده‌ها (Data Augmentation)، که در آن داده‌هایی که در مقادیر بسیار کم در دسترس هستند، به منظور گسترش مجموعه داده‌ها، دستخوش چندین تغییر می‌شوند.
  • برچسب گذاری داده (Data Labeling)، که در آن مجموعه داده ها برچسب گذاری می شوند، به این معنی که نمونه ها با متغیرهای هدف مرتبط هستند. برچسب ها اغلب برای داده های آزمایشی و داده های اعتبار سنجی مورد نیاز هستند. برخی از رویکردهای ML نیز به در دسترس بودن برچسب ها برای آموزش مدل متکی هستند.

دسته بندی دیتا بسته به رویکرد

بسته به مورد استفاده و رویکرد مورد استفاده، داده ها در سیستم هوش مصنوعی می توانند به روش های مختلفی درگیر شوند:

  • داده های تولیدی (Production Data)، داده هایی است که توسط سیستم هوش مصنوعی در مرحله عملیات پردازش می شود. همه سیستم‌های ai شامل داده‌های تولید نمی‌شوند، بسته به مورد استفاده، اما این مستقل از طراحی فنی و رویکرد سیستم Ai است.
  • داده های آزمایشی (Test Data) داده هایی است که برای ارزیابی عملکرد سیستم ai، قبل از استقرار آن استفاده می شود. انتظار می‌رود که مشابه داده‌های تولید باشد و ارزیابی مناسب نیاز دارد که داده‌های آزمایشی از هر داده‌ای که در طول توسعه استفاده می‌شود جدا باشد. همه رویکردهای ai نیاز به ارزیابی دارند، اما بسته به وظیفه، همیشه استفاده از داده‌های آزمایش کافی نیست.
  • داده‌های اعتبارسنجی (Validation Data) مربوط به داده‌هایی است که توسط توسعه‌دهنده برای ایجاد یا تأیید برخی از انتخاب‌های الگوریتمی (جستجوی فراپارامتر، طراحی قوانین و غیره) استفاده می‌شود. بسته به میدان ai نام های مختلفی دارد، به عنوان مثال در پردازش زبان طبیعی معمولاً به عنوان داده توسعه نامیده می شود. مواردی وجود دارد که به داده های اعتبارسنجی نیاز نیست.
  • داده های آموزشی (Training Data) به طور خاص در زمینه یادگیری ماشین استفاده می شود: به عنوان ماده خامی عمل می کند که الگوریتم یادگیری ماشین از آن مدل خود را برای پرداختن به وظیفه داده شده استخراج می کند.

یادگیری ماشین

انواع روش های یادگیری ماشین

یادگیری ماشین نظارت‌شده

یادگیری ماشین نظارت‌شده (Supervised Learning) روشی است که در آن مدل‌های یادگیری با استفاده از داده‌هایی آموزش می‌بینند که به صورت دقیق برچسب‌گذاری شده‌اند. این برچسب‌ها می‌توانند انواع مختلفی داشته باشند، مثل اعداد، دسته‌ها (مثلاً گربه یا سگ) یا حتی ساختارهای پیچیده‌تری مثل تصاویر و متن. با داشتن این برچسب‌ها، مدل می‌تواند الگوها را شناسایی کند و پیش‌بینی‌هایی دقیق‌تری انجام دهد. برای مثال، اگر بخواهیم به مدل یاد بدهیم که تصاویری از گربه‌ها را از سگ‌ها تشخیص دهد، به آن مجموعه بزرگی از تصاویر برچسب‌گذاری شده نشان می‌دهیم.

الگوریتم یادگیری ماشین نظارت شده
یادگیری ماشین نظارت‌شده

یادگیری ماشین نظارت‌نشده

برخلاف روش قبلی، یادگیری ماشین نظارت‌نشده (Unsupervised Learning) از داده‌هایی استفاده می‌کند که برچسب‌گذاری نشده‌اند. در این روش، مدل به دنبال یافتن الگوها و ساختارهای پنهان در داده‌هاست بدون اینکه از قبل بداند چه چیزی را باید پیدا کند. برای مثال، خوشه‌بندی یکی از کاربردهای مهم یادگیری نظارت‌نشده است که در آن داده‌ها به گروه‌هایی تقسیم می‌شوند که شباهت زیادی به هم دارند. این روش می‌تواند در مواردی مثل تحلیل بازار، تشخیص تقلب و کشف دانش جدید استفاده شود.

الگوریتم یادگیری ماشین نظارت نشده
یادگیری ماشین نظارت‌نشده

یادگیری ماشین نیمه‌نظارت‌شده

یادگیری ماشین نیمه‌نظارت‌شده (Semi-Supervised Learning) روشی است که ترکیبی از دو روش یادگیری ماشین نظارت‌شده و نظارت‌نشده است. در این روش، مدل هم از داده‌های برچسب‌گذاری شده (که می‌دانیم به چه کلاسی تعلق دارند) و هم از داده‌های بدون برچسب (که کلاس آن‌ها مشخص نیست) استفاده می‌کند.

در جدول زیر به مقایسه روش های یادگیری می پردازیم:

روش یادگیری ماشین نوع داده هدف
نظارت‌شده برچسب‌گذاری شده پیش‌بینی، طبقه‌بندی
نظارت‌نشده بدون برچسب کشف الگو، خوشه‌بندی
نیمه‌نظارت‌شده برچسب‌گذاری شده و بدون برچسب بهبود کارایی، استفاده از داده‌های بدون برچسب

یادگیری تقویتی

یادگیری تقویتی (Reinforcement Learning) مثل آموزش یک حیوان خانگی است. حیوان با آزمون و خطا یاد می‌گیرد که کدام رفتارها پاداش بیشتری دارند. در هوش مصنوعی هم، یک عامل (مثل یک ربات یا یک برنامه کامپیوتری) با تعامل با محیطش یاد می‌گیرد بهترین تصمیم‌ها را بگیرد. این عامل با هر تصمیم، پاداش یا تنبیهی دریافت می‌کند و به مرور زمان یاد می‌گیرد که برای کسب پاداش بیشتر، چه کاری انجام دهد.

یادگیری انتقالی

یادگیری انتقالی (Transfer Learning) مثل استفاده از دانش قبلی برای حل یک مسئله جدید است. مثلاً اگر یاد گرفته باشیم که اعداد را بشناسیم، می‌توانیم از این دانش برای تشخیص اعداد نوشته شده با دست هم استفاده کنیم. در واقع، ما دانش خود را از یک مسئله به مسئله دیگری منتقل می‌کنیم.

تقسیم داده‌ها در یادگیری ماشین

برای اینکه بتوانیم عملکرد یک مدل یادگیری ماشین را به طور دقیق ارزیابی کنیم، معمولاً داده‌هایمان را به سه دسته تقسیم می‌کنیم:

  • داده‌های آموزشی (Training Data): این داده‌ها برای آموزش اولیه مدل استفاده می‌شوند. به عبارت دیگر، مدل با استفاده از این داده‌ها الگوها و روابط بین ویژگی‌ها و برچسب‌ها را یاد می‌گیرد.
  • داده‌های اعتبارسنجی (Validation Data): این داده‌ها برای تنظیم پارامترهای مدل استفاده می‌شوند. به عبارت دیگر، ما از این داده‌ها برای پیدا کردن بهترین تنظیمات برای مدل استفاده می‌کنیم تا دقت آن روی داده‌های جدید افزایش یابد.
  • داده‌های آزمون (Test Data): این داده‌ها برای ارزیابی نهایی عملکرد مدل استفاده می‌شوند. این داده‌ها باید کاملاً جدید باشند و مدل قبلاً آن‌ها را ندیده باشد. با استفاده از داده‌های آزمون، می‌توانیم ببینیم که مدل چقدر خوب می‌تواند داده‌های جدید و ندیده را پیش‌بینی کند.

چرا این تقسیم‌بندی مهم است؟

تصور کنید می‌خواهیم به یک کودک جدول ضرب را یاد دهیم. اگر فقط به او سوال‌های تمرین را بدهیم و او فقط به آن‌ها پاسخ دهد، ممکن است در امتحان نهایی که سوالات جدیدی دارد، عملکرد خوبی نداشته باشد. در یادگیری ماشین هم همین اتفاق ممکن است بیفتد. اگر مدل فقط داده‌های آموزشی را ببیند، ممکن است آن‌ها را حفظ کند، اما نتواند الگوهای کلی را یاد بگیرد و در نتیجه در داده‌های جدید عملکرد خوبی نداشته باشد.

اعتبارسنجی متقاطع چیست؟

در بعضی موارد، ممکن است داده‌های کافی برای تقسیم به سه دسته جداگانه نداشته باشیم. در این حالت، از تکنیکی به نام اعتبارسنجی متقاطع استفاده می‌کنیم. در این روش، داده‌ها به چندین قسمت تقسیم می‌شوند و به نوبت هر قسمت به عنوان داده اعتبارسنجی و بقیه به عنوان داده آموزشی استفاده می‌شوند. این کار به ما اجازه می‌دهد که از همه داده‌ها حداکثر استفاده را ببریم و مدل دقیق‌تری داشته باشیم.

در نهایت با استفاده از این روش تقسیم داده‌ها، می‌توانیم اطمینان حاصل کنیم که مدل ما نه تنها در داده‌های آموزشی، بلکه در داده‌های جدید نیز عملکرد خوبی دارد. این کار به ما کمک می‌کند تا مدل‌هایی با دقت و قابلیت اطمینان بالاتر بسازیم.

در تصویر زیر سه مثال از نحوه تقسیم بندی داده برای آموزش، اعتبارسنجی و تست ارائه شده است:

تقسیم بندی داده هوش مصنوعی
تقسیم بندی داده ها در در یادگیری ماشین

مدل آموزش‌دیده

یک مدل آموزش‌دیده (Trained model) در واقع همان نتیجه‌ی آموزش یک مدل یادگیری ماشین است. این مدل با استفاده از داده‌های آموزشی و الگوریتم‌های خاص ساخته می‌شود و می‌تواند بر اساس داده‌های جدید، پیش‌بینی‌هایی انجام دهد. به زبان ساده‌تر، مدل آموزش‌دیده مثل یک ماشین حساب هوشمند است که می‌تواند با توجه به اطلاعاتی که به آن می‌دهیم، نتیجه‌ای را پیش‌بینی کند. این مدل‌ها در قالب‌های مختلفی ذخیره می‌شوند تا بتوان از آن‌ها در سیستم‌های هوش مصنوعی استفاده کرد.

بازآموزی و یادگیری پیوسته

تصور کنید یک مدل هوش مصنوعی داریم که وظیفه تشخیص اشیاء در تصاویر را بر عهده دارد. در ابتدا، این مدل با استفاده از هزاران عکس آموزش دیده است تا بتواند گربه، سگ و ماشین را تشخیص دهد. اما با گذشت زمان، دنیای اطراف ما تغییر می‌کند. ممکن است مدل ما در تشخیص نژادهای جدید سگ یا ماشین‌های خودران مشکل داشته باشد. در این صورت، چه باید کرد؟

بازآموزی (Retraining):

یکی از راهکارها، بازآموزی مدل است. در این روش، ما مدل قبلی را با استفاده از داده‌های جدید آموزش می‌دهیم. این داده‌های جدید ممکن است شامل تصاویر جدیدی از نژادهای مختلف سگ یا ماشین‌های خودران باشد. با اضافه کردن این داده‌ها به مجموعه داده‌های آموزشی، مدل می‌تواند دانش خود را به‌روزرسانی کند و توانایی تشخیص اشیاء جدید را پیدا کند.

چرا به بازآموزی نیاز داریم؟

  • تغییر داده‌ها (Data Drift): با گذشت زمان، ویژگی‌های داده‌ها تغییر می‌کنند. مثلاً ممکن است تصاویری با رزولوشن بالاتر یا با نورپردازی متفاوت به دست بیاوریم.
  • تغییر مفهوم (Concept Drift): گاهی اوقات، مفاهیم تغییر می‌کنند. مثلاً قوانین رانندگی تغییر می‌کنند و در نتیجه، تعریف یک ماشین پارک شده ممکن است متفاوت شود.

یادگیری پیوسته (Continuous Learning):

یک قدم فراتر از بازآموزی، یادگیری پیوسته است. در این روش، مدل به طور مداوم در حین استفاده، با داده‌های جدید آموزش می‌بیند. این کار باعث می‌شود که مدل همیشه به‌روز باشد و بتواند با تغییرات محیط اطراف خود سازگار شود.

چالش‌های یادگیری پیوسته:

  • فراموشی فاجعه‌بار (Catastrophic Forgetting): هنگامی که یک مدل چیز جدیدی یاد می‌گیرد، ممکن است اطلاعات قبلی خود را فراموش کند. این پدیده، فراموشی فاجعه‌بار نامیده می‌شود.
  • پیچیدگی: پیاده‌سازی سیستم‌های یادگیری پیوسته پیچیده‌تر از سیستم‌های سنتی است.

مزایای یادگیری پیوسته:

  • انعطاف‌پذیری بیشتر: مدل‌هایی که قابلیت یادگیری پیوسته دارند، می‌توانند بهتر با تغییرات محیط سازگار شوند.
  • دقت بالاتر: با به‌روزرسانی مداوم، دقت مدل بهبود می‌یابد.
  • کاهش هزینه‌های نگهداری: نیازی به آموزش مجدد کامل مدل در فواصل زمانی طولانی نیست.

بازآموزی و یادگیری پیوسته دو تکنیک مهم در حوزه یادگیری ماشین هستند که به مدل‌ها کمک می‌کنند تا در دنیای پویا و در حال تغییر، عملکرد بهتری داشته باشند. با استفاده از این تکنیک‌ها، می‌توانیم مدل‌هایی ایجاد کنیم که قادر به یادگیری مستمر و سازگاری با تغییرات باشند.

شبکه‌های عصبی مصنوعی

شبکه‌های عصبی (Artificial Neural Network) یکی از قدرتمندترین ابزارها در حوزه یادگیری ماشین هستند. این ابزارها الهام گرفته از ساختار مغز انسان، تلاش می‌کنند تا به کامپیوترها توانایی یادگیری و تصمیم‌گیری هوشمندانه را بدهند.

چگونه شبکه‌های عصبی کار می‌کنند؟

تصور کنید مغز انسان را به عنوان یک شبکه بزرگ از نورون‌ها در نظر بگیریم. هر نورون با نورون‌های دیگر ارتباط دارد و با ارسال سیگنال‌ها با هم ارتباط برقرار می‌کنند. شبکه‌های عصبی مصنوعی نیز به همین شکل کار می‌کنند. آن‌ها از واحدهای پردازشی به نام نورون تشکیل شده‌اند که به هم متصل هستند.

  • لایه‌ها: نورون‌ها در لایه‌هایی سازماندهی شده‌اند. اطلاعات از یک لایه به لایه بعدی منتقل می‌شود.
  • وزن‌ها: هر ارتباط بین دو نورون یک وزن دارد. این وزن نشان می‌دهد که چقدر یک نورون روی نورون دیگر تأثیر می‌گذارد.
  • یادگیری: شبکه عصبی با تنظیم این وزن‌ها یاد می‌گیرد. به این صورت که ابتدا به شبکه داده‌های آموزشی داده می‌شود. سپس شبکه با مقایسه خروجی خود با پاسخ صحیح، وزن‌ها را تنظیم می‌کند تا خروجی به پاسخ صحیح نزدیک‌تر شود.
شبکه عصبی مصنوعی
شبکه عصبی مصنوعی (Artificial Neural Network)

انواع شبکه‌های عصبی

  • شبکه‌های عصبی پیش‌خور (Feed Forward Neural Network): ساده‌ترین نوع شبکه‌های عصبی هستند که اطلاعات فقط در یک جهت از ورودی به خروجی حرکت می‌کند.
  • شبکه‌های عصبی بازگشتی (Recurrent Neural Network): این شبکه‌ها می‌توانند اطلاعات گذشته را به خاطر بسپارند و برای پیش‌بینی آینده استفاده کنند.
  • شبکه‌های عصبی کانولوشنی (Convolutional Neural Network): این شبکه‌ها برای پردازش داده‌های تصویری بسیار مناسب هستند و می‌توانند ویژگی‌های مهم تصاویر را استخراج کنند.

یادگیری عمیق

وقتی شبکه‌های عصبی دارای لایه‌های بسیار زیادی باشند، به آن‌ها شبکه‌های عصبی عمیق یا شبکه‌های یادگیری عمیق می‌گویند. این شبکه‌ها توانایی یادگیری ویژگی‌های پیچیده و انتزاعی را دارند و در بسیاری از حوزه‌ها مانند تشخیص تصویر، پردازش زبان طبیعی و تولید متن استفاده می‌شوند.

مزایای شبکه‌های عصبی

  • یادگیری خودکار: شبکه‌های عصبی می‌توانند از داده‌ها الگوهای پیچیده را استخراج کنند و بدون نیاز به برنامه‌نویسی دقیق، تصمیم‌گیری کنند.
  • انعطاف‌پذیری: می‌توان از شبکه‌های عصبی برای حل طیف وسیعی از مشکلات استفاده کرد.
  • دقت بالا: شبکه‌های عصبی می‌توانند دقت بسیار بالایی در پیش‌بینی‌ها داشته باشند.

شبکه‌های عصبی ابزارهای قدرتمندی هستند که به کامپیوترها اجازه می‌دهند تا مانند انسان یاد بگیرند و تصمیم بگیرند. با پیشرفت تکنولوژی، کاربرد شبکه‌های عصبی در حال گسترش است و در آینده شاهد پیشرفت‌های بیشتری در این حوزه خواهیم بود.

شبکه عصبی پیش‌خور (FFNN)

ساده‌ترین نوع شبکه عصبی، شبکه عصبی پیش‌خور است. اطلاعات در این شبکه تنها در یک جهت از ورودی به خروجی حرکت می‌کند. هیچ ارتباطی بین نورون‌های درون یک لایه وجود ندارد. معمولاً دو لایه مجاور به صورت کامل (Fully-Connected) به هم متصل هستند، به این معنی که هر نورون در یک لایه به هر نورون در لایه بعدی متصل است.

شبکه عصبی بازگشتی (RNN)

RNNها با ورودی‌هایی سروکار دارند که به صورت ترتیب ظاهر می‌شوند، یعنی ترتیب ورودی‌ها در دنباله مهم است. مثال‌هایی از این ورودی‌ها شامل دنباله‌های دینامیک مانند جریان صدا و ویدیو، اما همچنین دنباله‌های ثابت مانند متن یا حتی تصاویر واحد است. RNNها دارای گره‌هایی هستند که هم اطلاعات ورودی را از لایه قبلی دریافت می‌کنند و هم اطلاعاتی را از خودشان از یک گذر قبلی در نظر می‌گیرند. RNNها دارای خاصیت وضعیت‌دار هستند که تحت تأثیر یادگیری گذشته قرار می‌گیرند. RNNها به طور گسترده در تشخیص گفتار، ترجمه ماشینی، پیش‌بینی سری زمانی و تشخیص تصویر استفاده می‌شوند.

چرا RNNها مهم هستند؟

  • حافظه: بر خلاف شبکه‌های عصبی معمولی که هر ورودی را به صورت جداگانه پردازش می‌کنند، RNNها می‌توانند اطلاعات گذشته را به خاطر بسپارند و از این اطلاعات برای پردازش داده‌های جدید استفاده کنند. این ویژگی به آن‌ها اجازه می‌دهد تا روابط پیچیده بین داده‌ها را درک کنند.
  • دنباله‌ها: RNNها برای کار با داده‌هایی که به صورت دنباله هستند، مانند متن، صوت و ویدیو، بسیار مناسب هستند.
  • کاربردهای گسترده: از تشخیص گفتار تا ترجمه ماشینی و پیش‌بینی سری زمانی، RNNها در بسیاری از زمینه‌ها کاربرد دارند.

چگونه RNNها کار می‌کنند؟

  • حلقه بازگشتی: مهم‌ترین ویژگی RNNها، حلقه بازگشتی است. این حلقه به RNN اجازه می‌دهد تا اطلاعات را از یک مرحله زمانی به مرحله زمانی بعدی منتقل کند.
  • حالت: هر RNN دارای یک حالت است که در آن اطلاعات درباره ورودی‌های قبلی ذخیره می‌شود. این حالت به RNN اجازه می‌دهد تا ارتباط بین ورودی‌های مختلف را درک کند.
  • یادگیری: RNNها با استفاده از الگوریتم‌های یادگیری مانند پس‌انتشار، وزن‌های خود را تنظیم می‌کنند تا بتوانند وظایف مورد نظر را انجام دهند.

شبکه عصبی حافظه کوتاه بلند (LSTM)

مشکل گرادیان ناپدید شونده: در RNNهای عمیق، گرادیان‌ها ممکن است به سرعت کوچک شوند و باعث شوند که شبکه نتواند اطلاعات دور را یاد بگیرد.

شبکه‌های LSTM (Long Short-Term Memory) نوع خاصی از RNN هستند که برای حل مشکل گرادیان ناپدید شونده طراحی شده‌اند. LSTMها دارای مکانیزمی هستند که به آن‌ها اجازه می‌دهد اطلاعات را برای مدت طولانی‌تری به خاطر بسپارند. شبکه‌های LSTM می‌توانند دنباله‌های پیچیده مانند نوشتن مانند شکسپیر یا ساخت موسیقی را بیاموزند.

شبکه عصبی کانولوشنال

شبکه عصبی کانولوشنال (Convolutional Neural Network) نوعی شبکه عصبی است که حداقل یک لایه کانولوشن (پیچش) برای فیلتر کردن اطلاعات مفید از ورودی‌ها شامل می‌شود. کاربردهای رایج آن شامل تشخیص تصویر، برچسب‌گذاری ویدیو و پردازش زبان طبیعی است.

شبکه‌های بیزین

تصور کنید می‌خواهید بدانید چرا بیمار شده‌اید. شما علائم مختلفی دارید و می‌خواهید بفهمید کدام بیماری باعث این علائم شده است. شبکه‌های بیزی (Baysian Network) به شما کمک می‌کنند تا با استفاده از احتمالات، روابط بین بیماری‌ها و علائم را مدل‌سازی کنید. به عنوان مثال، اگر تب داشته باشید، احتمال اینکه به آنفلوآنزا مبتلا شده باشید بیشتر است. شبکه‌های بیزی این روابط را به صورت یک نمودار نشان می‌دهند و با استفاده از آن می‌توانیم احتمال وقوع هر بیماری را با توجه به علائم موجود محاسبه کنیم.

شبکه بیزین Baysian
شبکه بیزین

درخت تصمیم

درخت تصمیم (Decision tree) شبیه یک نمودار جریان است که در آن هر گره یک سوال را مطرح می‌کند و هر شاخه پاسخ به آن سوال است. این درخت به شما کمک می‌کند تا تصمیم بگیرید. برای مثال، تصور کنید می‌خواهید بدانید که آیا باید به مسافرت بروید یا نه. درخت تصمیم با پرسیدن سوال‌هایی مانند “آیا هوا خوب است؟”، “آیا تعطیلات است؟” و … به شما کمک می‌کند تا بهترین تصمیم را بگیرید. در یادگیری ماشین، درخت تصمیم برای طبقه‌بندی داده‌ها استفاده می‌شود. به عنوان مثال، می‌توانیم از درخت تصمیم برای پیش‌بینی اینکه یک ایمیل اسپم است یا نه استفاده کنیم.

ماشین بردار پشتیبان (SVM)

SVM (Support Vector Machine) یک روش قدرتمند برای طبقه‌بندی داده‌ها است. تصور کنید می‌خواهید داده‌ها را به دو دسته تقسیم کنید، مانند اینکه یک ایمیل اسپم است یا نه. SVM یک خط (یا در فضاهای با ابعاد بالاتر، یک هایپرپلن) پیدا می‌کند که بهترین جداسازی بین دو دسته را ایجاد کند. به این خط، “خط تصمیم” گفته می‌شود. نقاطی که نزدیک‌ترین فاصله را به این خط دارند، “بردارهای پشتیبان” نامیده می‌شوند. SVM سعی می‌کند این خط را طوری قرار دهد که حاشیه بین دو دسته حداکثر شود.

هوش مصنوعی با روش SVM
ذسته بندی به روش SVM

دو نوع SVM وجود دارد:

  1. SVM حاشیه سخت: این نوع SVM تنها زمانی کار می‌کند که داده‌ها به طور کامل قابل جداسازی باشند، یعنی هیچ داده‌ای از دسته اشتباه در طرف دیگر خط قرار نداشته باشد. در عمل، این نوع SVM بسیار نادر است.
  2. SVM حاشیه نرم: این نوع SVM واقع‌گرایانه‌تر است و اجازه می‌دهد برخی از داده‌ها در طرف اشتباه خط قرار بگیرند. هدف این است که تعداد این موارد را به حداقل برسانیم و در عین حال حاشیه بین دو دسته را تا حد امکان
  3. بزرگ نگه داریم.

SVM و نگاشت داده‌ها

SVM می‌تواند از توابع کرنل استفاده کند تا داده‌ها را از فضای اصلی به یک فضای با ابعاد بالاتر نگاشت کند. این کار ممکن است باعث شود داده‌ها در فضای جدید قابل جداسازی شوند، حتی اگر در فضای اصلی قابل جداسازی نبودند.

SVM برای رگرسیون

علاوه بر طبقه‌بندی، SVM همچنین می‌تواند برای رگرسیون استفاده شود. در این حالت، هدف این است که بیشترین تعداد نقاط داده را درون یک حاشیه قرار دهیم، در حالی که تعداد نقاط خارج از حاشیه را به حداقل برسانیم.

کاربردهای SVM

SVM در بسیاری از زمینه‌ها از جمله تشخیص تصویر، پردازش متن، و پیش‌بینی استفاده می‌شود.

خودمختاری، ناهمگونی و اتوماسیون

در ارتباط با هوش مصنوعی با سه مفهوم زیر سر و کار داریم:

  • خودمختاری (Autonomy): توانایی یک سیستم برای تصمیم‌گیری و عمل بدون دخالت مستقیم انسان.
  • ناهمگونی (Heteronomy): وضعیتی که در آن سیستم هوش مصنوعی تا حدی به انسان وابسته است، اما کاملاً تحت کنترل آن نیست.
  • اتوماسیون: جایگزینی کارهای انسانی با ماشین‌ها.

سیستم‌های هوش مصنوعی را می‌توان بر اساس سطح اتوماسیون و اینکه آیا تحت کنترل خارجی هستند مقایسه کرد. خودمختاری (Autonomy) در یک طرف باره و یک سیستم کاملاً تحت کنترل انسان در طرف دیگر قرار دارد، با درجات مختلف ناهمگونی (heteronomy) در بین آن‌ها. جدول زیر رابطه بین خودمختاری، ناهمگونی و اتوماسیون، از جمله حالت صفر اتوماسیون را نشان می‌دهد.

جدول سطوح خودمختاری

نکته: در حقوق، خودمختاری به قابلیت خودگردانی اشاره دارد. از این نظر، اصطلاح “خودمختار” نیز در مورد سیستم‌های هوش مصنوعی خودکار یک اسم اشتباه است، زیرا حتی پیشرفته‌ترین سیستم‌های هوش مصنوعی نیز خودگردان نیستند. بلکه سیستم‌های هوش مصنوعی بر اساس الگوریتم‌ها عمل می‌کنند و از دستورات اپراتورها پیروی می‌کنند.

معیارهای مرتبط برای طبقه‌بندی یک سیستم در این طیف عبارتند از:

  • وجود یا عدم وجود نظارت خارجی، چه توسط یک اپراتور انسانی (“انسان در حلقه”) یا توسط یک سیستم خودکار دیگر؛
  • درجه درک موقعیتی سیستم، از جمله کامل بودن و عملیاتی بودن مدل سیستم از حالت‌های محیط آن، و اطمینان از اینکه سیستم می‌تواند در محیط خود استدلال و عمل کند؛
  • درجه واکنش‌پذیری یا پاسخگویی، از جمله اینکه آیا سیستم می‌تواند تغییرات در محیط خود را متوجه شود، آیا می‌تواند به تغییرات واکنش نشان دهد و آیا می‌تواند تغییرات آینده را تعیین کند؛
  • اینکه آیا عملکرد آن تا تکمیل یک کار خاص یا وقوع یک رویداد خاص در محیط ادامه می‌یابد (مثلاً برای دستیابی به یک هدف، تایمرها یا مکانیسم‌های دیگر)؛
  • درجه سازگاری با تغییرات، نیازها یا انگیزه‌های داخلی یا خارجی؛
  • توانایی ارزیابی عملکرد یا تناسب خود، از جمله ارزیابی‌ها بر اساس اهداف از پیش تعیین‌شده؛
  • توانایی تصمیم‌گیری و برنامه‌ریزی پیشگیرانه در رابطه با اهداف، انگیزه‌ها و انگیزش‌های سیستم.

عوامل موثر بر سطح خودمختاری

  • نظارت انسانی: آیا سیستم به طور مداوم تحت نظارت انسان است یا می‌تواند به صورت مستقل کار کند؟
  • درک محیط: آیا سیستم می‌تواند محیط اطراف خود را درک کند و تغییرات آن را پیش‌بینی کند؟
  • توانایی تصمیم‌گیری: آیا سیستم می‌تواند به تنهایی تصمیم بگیرد و اقدام کند؟
  • انطباق‌پذیری: آیا سیستم می‌تواند خود را با شرایط جدید وفق دهد؟

اهمیت نظارت انسانی

حتی پیشرفته‌ترین سیستم‌های هوش مصنوعی نیز به طور کامل مستقل نیستند و به نظارت انسان نیاز دارند. نظارت انسانی به اطمینان از اینکه سیستم طبق انتظار کار می‌کند و خطرات احتمالی را کاهش می‌دهد، کمک می‌کند. در بسیاری از موارد، به جای اینکه هوش مصنوعی جایگزین انسان شود، می‌تواند به عنوان یک ابزار برای افزایش توانایی‌های انسان عمل کند. به این همکاری، همکاری انسان و ماشین می‌گویند.

اینترنت اشیا و سیستم‌های سایبر-فیزیکی

هوش مصنوعی به طور فزاینده‌ای به عنوان یک جزء در سیستم‌های تعبیه شده مانند اینترنت اشیا و سیستم‌های سایبر-فیزیکی استفاده می‌شود. این استفاده هم برای تجزیه و تحلیل جریان‌های اطلاعاتی درباره جهان فیزیکی که از حسگرها به دست می‌آید و هم برای پیش‌بینی و تصمیم‌گیری درباره فرآیندهای فیزیکی است. این تصمیم‌گیری‌ها برای ارسال دستورات مناسب به عملگرها به منظور کنترل یا تأثیرگذاری بر این فرآیندها استفاده می‌شود.

اینترنت اشیا

اینترنت اشیا (IoT) یک زیرساخت متشکل از موجودیت‌ها، سیستم‌ها و منابع اطلاعاتی مرتبط به همراه خدماتی است که به پردازش و واکنش به اطلاعات از جهان فیزیکی و مجازی می‌پردازند. در اصل، یک سیستم IoT شبکه‌ای از گره‌ها با حسگرها و عملگرها است. حسگرها ویژگی‌های موجودیت‌های فیزیکی را اندازه‌گیری کرده و داده‌های مربوط به این اندازه‌گیری‌ها را منتقل می‌کنند، در حالی که عملگرها ویژگی‌های موجودیت‌های فیزیکی را در پاسخ به ورودی دیجیتال تغییر می‌دهند.

نظارت پزشکی و نظارت بر وضعیت جوی نمونه‌هایی از سیستم‌های IoT هستند که خروجی آن‌ها اطلاعاتی است که قصد دارد به فعالیت‌های انسان‌ها کمک کند (مانند هشدارها به کادر پزشکی، پیش‌بینی‌های آب و هوایی برای مردم).

سیستم‌های IoT شامل سیستم‌های فناوری اطلاعات شبکه‌ای هستند که با موجودیت‌های فیزیکی تعامل دارند. اساس سیستم‌های IoT، دستگاه‌های دیجیتال IoT هستند که به صورت حسگرها و عملگرها با موجودیت‌های فیزیکی تعامل دارند. یک حسگر یک یا چند ویژگی از یک یا چند موجودیت فیزیکی را اندازه‌گیری کرده و داده‌هایی را تولید می‌کند که می‌توانند از طریق شبکه منتقل شوند. یک عملگر یک یا چند ویژگی از یک موجودیت فیزیکی را در پاسخ به یک ورودی معتبر که از طریق شبکه دریافت می‌شود، تغییر می‌دهد. هم حسگرها و هم عملگرها می‌توانند به اشکال مختلفی باشند، مانند دماسنج‌ها، شتاب‌سنج‌ها، دوربین‌های ویدئویی، میکروفون‌ها، رله‌ها، بخاری‌ها، ربات‌ها یا تجهیزات صنعتی برای تولید یا کنترل فرآیند.

هوش مصنوعی می‌تواند نقش مهمی در زمینه سیستم‌های IoT ایفا کند. این نقش شامل تجزیه و تحلیل داده‌های ورودی و تصمیم‌گیری است که می‌تواند در دستیابی به اهداف سیستم، مانند کنترل موجودیت‌های فیزیکی و فرآیندهای فیزیکی، با ارائه اطلاعات زمینه‌ای، بلادرنگ و پیش‌بینی‌کننده کمک کند.

سیستم‌های سایبر-فیزیکی

سیستم‌های سایبر-فیزیکی (CPS) سیستم‌هایی مشابه IoT هستند، اما در آن‌ها کنترل منطقی بر ورودی‌های حسگرها اعمال می‌شود تا فعالیت‌های عملگرها را هدایت کرده و بدین ترتیب بر فرآیندهایی که در جهان فیزیکی رخ می‌دهند تأثیر بگذارند.

یک ربات نمونه‌ای از سیستم CPS است که ورودی حسگر به طور مستقیم برای کنترل فعالیت‌های عملگرها استفاده می‌شود. رباتیک شامل تمام فعالیت‌های مربوط به طراحی، مونتاژ، تولید، کنترل و استفاده از ربات‌ها برای انواع کاربردها است. یک ربات از اجزای الکترونیکی، مکانیکی، میان‌افزار و نرم‌افزاری تشکیل شده است که با یکدیگر برای رسیدن به اهداف تعیین شده برای یک کاربرد خاص تعامل می‌کنند. ربات‌ها معمولاً شامل حسگرها برای ارزیابی وضعیت فعلی، پردازنده‌ها برای فراهم آوردن کنترل از طریق تجزیه و تحلیل و برنامه‌ریزی اقدامات و عملگرها برای انجام اقدامات هستند. ربات‌های صنعتی که در سلول‌های تولیدی قرار دارند، برنامه‌ریزی شده‌اند تا به طور دقیق همان مسیرها و اقدامات را بارها و بارها بدون انحراف تکرار کنند. ربات‌های خدماتی یا ربات‌های همکار نیاز به تطبیق با شرایط متغیر و محیط‌های پویا دارند. برنامه‌ریزی این انعطاف‌پذیری به دلیل تمام تغییرات موجود، به طور غیرقابل حل چالش‌برانگیز است.

اجزای سیستم هوش مصنوعی می‌توانند به عنوان بخشی از نرم‌افزار کنترل و فرآیند برنامه‌ریزی از طریق الگوی “حس، برنامه‌ریزی، عمل” عمل کنند و بدین ترتیب به ربات‌ها امکان تنظیم زمانی که موانع ظاهر می‌شوند یا زمانی که اشیاء هدف جابجا شده‌اند را بدهند. ترکیب رباتیک و اجزای سیستم هوش مصنوعی امکان تعامل فیزیکی خودکار با اشیاء، محیط و افراد را فراهم می‌کند.

حوزه های هوش مصنوعی

بینایی ماشین و تشخیص تصویر

بینایی ماشین را به عنوان “توانایی یک واحد عملکردی برای دریافت، پردازش و تفسیر داده‌هایی که تصاویر یا ویدئو را نشان می‌دهند” تعریف می‌شود که ارتباط نزدیکی با پردازش تصویر دارد، به عنوان مثال پردازش تصاویر دیجیتال. داده‌های بصری معمولاً از یک حسگر تصویر دیجیتال، یک تصویر آنالوگ اسکن شده دیجیتالی یا برخی از دستگاه‌های ورودی گرافیکی دیگر سرچشمه می‌گیرند. برای اهداف این سند، تصاویر دیجیتال شامل انواع ثابت و متحرک هستند.

تصاویر دیجیتال به صورت ماتریسی از اعداد وجود دارند که مقیاس‌های خاکستری یا رنگ‌ها را در تصویر گرفته شده یا در موارد دیگر مجموعه‌ای از بردارها را نشان می‌دهند. می‌توانند شامل فراداده‌هایی باشند که ویژگی‌ها و خصوصیات مرتبط با تصویر را شرح می‌دهند. همچنین  می‌توان تصاویر دیجیتال را برای صرفه‌جویی در فضای ذخیره‌سازی و بهبود عملکرد انتقال آنها در شبکه‌های دیجیتال فشرده کرد.

در زیر نمونه‌هایی از کاربردهای هوش مصنوعی مبتنی بر بینایی ماشین و تشخیص تصویر آورده شده است:

  • شناسایی تصاویر خاص از مجموعه‌ای از تصاویر (به عنوان مثال تصاویر سگ در مجموعه‌ای از تصاویر حیوانات)
  • وسایل نقلیه خودران: تشخیص و شناسایی علائم راهنمایی و رانندگی و اشیاء در وسایل نقلیه خودکار
  • تشخیص پزشکی: تشخیص بیماری و ناهنجاری در تصویربرداری پزشکی
  • کنترل کیفیت (به عنوان مثال، تشخیص قطعات معیوب در خط مونتاژ)
  • تشخیص چهره

وظایف اساسی برای بینایی ماشین شامل دریافت تصویر، نمونه‌برداری مجدد، مقیاس‌بندی، کاهش نویز، افزایش کنتراست، استخراج ویژگی، تقسیم‌بندی، تشخیص و طبقه‌بندی اشیا است.

روش‌های مختلفی برای انجام وظایف بینایی ماشین در سیستم‌های هوش مصنوعی در دسترس است. استفاده از شبکه عصبی کانولوشن عمیق در سال‌های اخیر به دلیل دقت بالای آنها در کارهای طبقه‌بندی تصویر و عملکرد آموزش و پیش‌بینی آنها مورد توجه قرار گرفته است.

پردازش زبان طبیعی

پردازش زبان طبیعی، پردازش اطلاعات بر اساس درک زبان طبیعی و تولید زبان طبیعی است. این شامل تجزیه و تحلیل و تولید زبان طبیعی، با متن یا گفتار است. با استفاده از قابلیت‌های NLP، رایانه‌ها می‌توانند متنی را که به زبان انسان نوشته شده است تجزیه و تحلیل کنند و مفاهیم، موجودیت‌ها، کلمات کلیدی، روابط، احساسات، عواطف و سایر ویژگی‌ها را شناسایی کنند و به کاربران اجازه دهند از محتوا بینش بگیرند. با این قابلیت‌ها، رایانه‌ها همچنین می‌توانند متن یا گفتار را برای برقراری ارتباط با کاربران تولید کنند. هر سیستمی که زبان طبیعی را به صورت متن یا گفتار به عنوان ورودی یا خروجی دریافت می‌کند و قادر به پردازش آن است، از اجزای پردازش زبان طبیعی استفاده می‌کند. نمونه‌ای از چنین سیستمی، یک سیستم رزرو خودکار برای یک شرکت هواپیمایی است که می‌تواند تماس‌های مشتریان را دریافت کرده و برای آنها پرواز رزرو کند. چنین سیستمی به یک جزء درک زبان طبیعی و یک جزء تولید زبان طبیعی نیاز دارد.

در زیر نمونه‌هایی از کاربردهای هوش مصنوعی مبتنی بر پردازش زبان طبیعی آورده شده است:

  • تشخیص دست خط (به عنوان مثال تبدیل یادداشت‌های دست نویس به فرم دیجیتال)
  • تشخیص گفتار (به عنوان مثال درک معنای سخنان انسان)
  • تشخیص هرزنامه (به عنوان مثال استفاده از معنای کلمات در یک پیام ایمیل برای تعیین اینکه آیا آن پیام به عنوان ناخواسته طبقه‌بندی می‌شود)
  • دستیارهای شخصی دیجیتال و چت‌بات‌های آنلاین که می‌توانند از درک زبان طبیعی و تولید زبان طبیعی (از جمله تشخیص گفتار و تولید گفتار) برای ارائه رابط‌های کاربری مکالمه‌ای استفاده کنند.
  • خلاصه‌سازی
  • تولید متن
  • جستجوی محتوا

NLP همچنین در بسیاری از سیستم‌های کاربردی مانند چت‌بات‌ها، سیستم‌های تبلیغاتی مبتنی بر محتوا، سیستم‌های ترجمه گفتار و سیستم‌های آموزش الکترونیکی استفاده می‌شود.

اجزای پردازش زبان طبیعی

اجزای NLP وظایف مختلفی را انجام می‌دهند. رایج‌ترین وظایف عبارتند از:

NLU (Natural Language Understanding): واحد NLU متن یا گفتار را به یک توصیف داخلی تبدیل می‌کند که قرار است معنای ورودی را حمل کند. دشواری از ابهام ذاتی زبان‌های طبیعی ناشی می‌شود: کلمات و جملات ذاتاً چندمعنا هستند، از این رو نتیجه NLU مستعد خطا است.

NLG (Natural Language Generation): واحد NLG یک توصیف داخلی را به متن یا گفتاری تبدیل می‌کند که برای انسان قابل درک باشد. این کار می‌تواند شامل تنظیم عبارات باشد تا برای کاربر طبیعی‌تر به نظر برسد.

POS (Part of Speech): واحد برچسب‌گذاری POS برای طبقه‌بندی هر کلمه در ورودی به عنوان یک شیء دستوری استفاده می‌شود: اینکه آیا اسم، صفت، فعل و غیره است. برچسب‌گذاری POS نیز تحت تأثیر چندمعنایی قرار می‌گیرد.

NER (Named Entity Recognition): واحد NER به دنبال شناسایی و برچسب‌گذاری نام‌های دال بر شخص، مکان، سازمان یا نهاد دیگر برای دنباله‌ای از کلمات در یک جریان متن یا گفتار خواهد بود. بسته به نهاد، اطلاعات بیشتری قابل استخراج است. به عنوان مثال، برای افراد، عنوان یا عملکرد آنها به عنوان مثال مفید است.

پاسخگویی به سؤال

یک جزء پاسخگویی به سؤال سعی می‌کند مناسب‌ترین پاسخ را به سؤال انسان بدهد. کاربر با استفاده از زبان طبیعی چیزی می‌پرسد و سیستم به زبان طبیعی پاسخی ارائه می‌دهد.

MT (Machine Translation): واحد MT به طور خودکار محتوای زبان طبیعی را از یک زبان به زبان دیگر ترجمه می‌کند. این می‌تواند از متن به متن، گفتار به متن، گفتار به گفتار یا متن به گفتار اتفاق بیفتد. دشواری از چندمعنایی ناشی می‌شود، که در آن یک کلمه معانی متعددی دارد، و همچنین از منابع دیگر، مانند ارجاعات بین یا داخل جملات یا مقاصد ناگفته. در بسیاری از موارد، ترجمه‌های متعددی امکان‌پذیر است.

OCR (Optical Character Cecognition): واحد OCR به دنبال تبدیل اسناد مکتوب به شکل تصاویر (احتمالاً اسکن شده) به یک توصیف کدگذاری شده دیجیتال از محتوای آنها خواهد بود: متن، جداول، شکل‌ها، عناوین و روابط آنها.

استخراج رابطه: یک جزء استخراج رابطه به وظیفه استخراج روابط بین موجودیت‌های نام‌گذاری شده یا حتی بین هر نهاد در ورودی می‌پردازد. به عنوان مثال، این جزء می‌تواند در یک متن ورودی در مورد فیلم‌هایی که «آل پاچینو» «در» فیلم «سرپیکو» «بازی کرده است» را شناسایی کند.

IR (Information Retrieval): واحد IR یا جستجو به دنبال رفع نیازهای اطلاعاتی کاربر با جستجوی مجموعه‌ای از محتوای بدون ساختار خواهد بود. پرس و جو کاربر که بیانگر نیاز اطلاعاتی آنها است، به طور الگوریتمی با هر عنصر در مجموعه مقایسه می‌شود تا ارتباط آن با نیاز اطلاعاتی کاربر پیش‌بینی شود. خروجی این جزء معمولاً به صورت فهرستی از عناصر انتخاب شده که به ترتیب نزولی ارتباط آنها رتبه‌بندی شده‌اند به کاربر ارائه می‌شود. اجزای بازیابی اطلاعات را می‌توان برای طیف وسیعی از انواع مختلف عناصر اطلاعاتی از جمله متن آزاد، اسناد نیمه ساختار یافته، اسناد ساختار یافته، صدا، تصویر و ویدئو و به زبان‌های طبیعی مختلف توسعه داد.

تحلیل احساسات: یک جزء تحلیل احساسات به دنبال شناسایی و طبقه‌بندی محاسباتی نظرات ابراز شده در یک متن، گفتار یا تصویر خواهد بود. به آن داده کاوی نظر نیز می‌گویند. نمونه‌هایی از جنبه‌های ذهنی می‌تواند شامل احساسات مثبت یا منفی باشد.

خلاصه‌سازی خودکار: یک جزء خلاصه‌سازی خودکار، اطلاعات مهم را از یک عنصر محتوا با استفاده از یکی از دو رویکرد (یا ترکیبی از آنها) به طور مختصرتر منتقل می‌کند. خلاصه‌سازی استخراجی که محتوای مرتبط کلیدی را از محتوای منبع انتخاب می‌کند تا یک نسخه خلاصه شده کاهش یافته تولید کند. خلاصه‌سازی انتزاعی که به دنبال سنتز یک متن کوتاه‌تر جدید است که اطلاعات مربوطه را منتقل می‌کند. خلاصه‌سازی انتزاعی مربوط به تولید زبان طبیعی است.

مدیریت گفتگو: یک جزء مدیریت گفتگو به مدیریت مجموعه‌ای از تعاملات بین کاربر و سیستم با هدف بهبود تجربه کاربر با شبیه‌سازی یک مکالمه زبان طبیعی کمک می‌کند. مدیریت گفتگو از طیف وسیعی از رویکردها استفاده می‌کند، از جمله قوانین اعلانی که پاسخ‌ها را برای محرک‌های ورودی خاص و رویکردهای مبتنی بر یادگیری ماشینی مشخص می‌کنند. مدیریت گفتگو می‌تواند تعاملات مبتنی بر متن را هدایت کند، به عنوان مثال برای ارائه یک تجربه مکالمه‌تر با اجزای پاسخگویی به سؤال یا ادغام با اجزای تشخیص و سنتز گفتار برای پشتیبانی از برنامه‌ها در دستیاران شخصی، نمایندگان خدمات مشتری آنلاین یا رباتیک مراقبت شخصی.

ترجمه ماشینی

ترجمه ماشینی یک کار NLP است که در آن از یک سیستم کامپیوتری برای ترجمه خودکار متن یا گفتار از یک زبان طبیعی به زبان دیگر استفاده می‌شود.

به طور کلی فرآیند ترجمه توسط انسان در دو مرحله انجام می شود. مرحله اول رمزگشایی معنای زبان مبدا است. مرحله دوم کدگذاری مجدد معنی به زبان مقصد است. این فرآیند مستلزم دانش عمیق از دستور زبان، معناشناسی، نحو، اصطلاحات، پیشینه فرهنگی و سایر حوزه ها است.

چالش‌های فنی برای ترجمه ماشینی شامل حواس چندگانه کلمه، ملاحظات زمینه‌ای، تفاوت‌های دستوری و زبان‌هایی است که از سیستم‌های نوشتاری مبتنی بر لوگرام استفاده می‌کنند. رویکردهای زیادی برای ترجمه ماشینی وجود داشته است، مانند مبتنی بر قاعده، مبتنی بر مثال، آماری، عصبی یا ترکیبی از آنها.

در سال‌های اخیر، از شبکه‌های عصبی برای انجام ترجمه ماشینی استفاده شده است که منجر به پیشرفت‌های چشمگیری در روانی و دقت ترجمه شده است. از طریق یادگیری عمیق، مدل را می‌توان برای عبارات خاص دامنه آموزش داد و سفارشی کرد تا به سطوح دقت بالایی دست یابد.

سنتز گفتار

آیا تا به حال به این فکر کرده‌اید که چگونه یک کامپیوتر می‌تواند متنی را که شما تایپ می‌کنید، به صورت صدای طبیعی بخواند؟ این همان کاری است که سیستم‌های متن به گفتار (Text-to-Speech یا TTS) انجام می‌دهند. این سیستم‌ها پل ارتباطی بین دنیای نوشتار و دنیای گفتار هستند و کاربردهای بسیار متنوعی دارند، از تولید کتاب‌های صوتی گرفته تا کمک به افراد نابینا برای دسترسی به اطلاعات.

سه مرحله اصلی در تبدیل متن به صدا

برای تبدیل یک متن به صدا، سیستم‌های TTS از سه مرحله اصلی عبور می‌کنند:

  1. تجزیه و تحلیل متن: در این مرحله، کامپیوتر متن را جوری بررسی می‌کند که انگار یک انسان آن را می‌خواند. کلمات را شناسایی می‌کند، ساختار جمله را درک می‌کند و حتی لحن مناسب برای هر جمله را تعیین می‌کند. برای مثال، اگر جمله‌ای سوالی باشد، کامپیوتر می‌فهمد که باید با لحن پرسشی آن را بیان کند.
  2. مدل‌سازی صدا: در این مرحله، کامپیوتر سعی می‌کند صدای انسان را تقلید کند. با استفاده از مدل‌های ریاضی پیچیده، کامپیوتر الگوهای موجود در گفتار انسان را یاد می‌گیرد. این الگوها شامل نحوه تلفظ حروف، آهنگ کلمات و مکث‌های طبیعی در گفتار هستند.
  3. تولید صدا: در آخرین مرحله، کامپیوتر با استفاده از مدل‌های ساخته شده در مرحله قبل، صدای متناظری برای متن ورودی تولید می‌کند. این صدا باید تا حد ممکن طبیعی و قابل فهم باشد.
  • طبیعی بودن صدا: صدای تولید شده باید به صدای انسان واقعی شباهت داشته باشد. هیچ کس دوست ندارد یک صدای رباتیک و مصنوعی بشنود.
  • وضوح صدا: صدا باید به اندازه کافی واضح باشد تا به راحتی قابل فهم باشد. اگر صدا مبهم یا نویزی باشد، شنونده نمی‌تواند پیام را به درستی دریافت کند.

برای تولید صدا، روش‌های مختلفی وجود دارد. برخی از این روش‌ها عبارتند از:

  • سنتز الحاقی: در این روش، قطعات کوچکی از صدای ضبط شده یک انسان واقعی کنار هم قرار می‌گیرند تا کلمات و جملات جدیدی ساخته شود. این روش ساده است اما ممکن است صدای تولید شده کمی مصنوعی به نظر برسد.
  • سنتز فورمنت: در این روش، از مدل‌های ریاضی برای شبیه‌سازی مجرای صوتی انسان استفاده می‌شود. این روش صدای طبیعی‌تری تولید می‌کند اما پیاده‌سازی آن پیچیده‌تر است.

با پیشرفت تکنولوژی یادگیری عمیق، سیستم‌های TTS به پیشرفت‌های چشمگیری دست یافته‌اند. برخی از سیستم‌های مبتنی بر شبکه‌های عصبی عمیق (DNN) قادرند صدایی تولید کنند که تقریباً از صدای انسان قابل تشخیص نیست.

تشخیص گفتار

این مقاله تشخیص گفتار را به عنوان تبدیل، توسط یک واحد عملکردی، یک سیگنال گفتار به نمایشی از محتوای گفتار تعریف می‌کند. گفتار دیجیتالی شده نوعی داده متوالی است، به طوری که از تکنیک‌هایی که می‌توانند داده‌های مرتبط با یک بازه زمانی را مدیریت کنند، می‌توان برای پردازش واج‌ها از گفتار استفاده کرد.

چندین رویکرد با استفاده از شبکه‌های عصبی برای تشخیص گفتار استفاده شده است. یک رویکرد شامل استفاده از LSTM ها است. این روش به یک شبکه عصبی اجازه می‌دهد تا بدون ترکیب با فرآیندهای دیگر مانند مدل‌های مارکوف پنهان HMM آموزش داده شود و به عنوان یک راه حل تشخیص گفتار مستقر شود و منجر به عملکرد تشخیص معقول شود.

در زیر نمونه‌هایی از کاربردهای هوش مصنوعی مبتنی بر تشخیص گفتار آورده شده است:

  • سیستم های فرمان صوتی
  • دیکته دیجیتال
  • دستیاران شخصی

پاسخگویی به سوال

سیستم‌های پاسخگویی به سؤال می‌توانند تعداد زیادی صفحه متن را دریافت کرده و از فناوری پاسخگویی به سؤال برای پاسخ به سؤالات مطرح شده توسط انسان به زبان طبیعی استفاده کنند. این رویکرد به افراد این امکان را می‌دهد تا «بپرسند» و تقریباً آنی به سؤالات پیچیده پاسخ دهند. فناوری پاسخگویی به سؤال که با سایر API ها و تجزیه و تحلیل پیشرفته ترکیب شده است، با ارائه یک تجربه کاربری تعاملی‌تر، خود را از جستجوی معمولی (که توسط کلمات کلیدی فعال می‌شود) متمایز می‌کند.

داده کاوی

داده کاوی به کاربرد الگوریتم‌ها برای کشف اطلاعات معتبر، بدیع و مفید از داده‌ها اشاره دارد. در اواخر دهه 1990 برجسته شد و به عنوان متمایز از روش‌های آماری قبلی شناخته شد. آمار سنتی بر جمع‌آوری داده‌های لازم و کافی برای پاسخ قطعی به یک سوال خاص متمرکز بود. معمولاً برای تغییر کاربری داده‌ها برای یافتن پاسخ‌های تقریبی یا تناسب‌های احتمالی با الگوها اعمال می‌شد. تحلیل داده به عنوان مرحله مدل‌سازی الگوریتمی در فرآیند کامل KDD در نظر گرفته می‌شود. یک کنسرسیوم که از تلاش‌های اولیه داده کاوی بیرون آمد، توانست تمام مراحل داده کاوی را با جزئیات در استاندارد صنعتی CRISP-DM که در سال 2000 منتشر شد، شرح دهد. این علم شامل طیف وسیعی از تکنیک‌ها از جمله درختان تصمیم، خوشه‌بندی و طبقه‌بندی است. همانطور که فناوری‌های کلان داده در اواسط دهه 2000 ظهور کردند، کاربرد الگوریتم‌ها دیگر قابل تفکیک از ذخیره‌سازی داده‌ها نبود و نمونه‌برداری دقیق جای خود را به پردازش سریع داده‌ها داد. این تغییرات منجر به توصیف جدیدی از نسخه داده‌های بزرگ فرآیند چرخه عمر KDD به عنوان فعالیت‌های علم داده شد. اگرچه KDD و کشف دانش اصطلاحات رایجی در هوش مصنوعی هستند، اما آنچه یک کامپیوتر تولید می‌کند دانش نیست، اطلاعات است.

برنامه ریزی

برنامه ریزی یک زیرشاخه از هوش مصنوعی است. برای کاربردهای صنعتی حیاتی است و در بسیاری از زمینه‌های تجاری مانند مدیریت ریسک، مراقبت‌های بهداشتی، ربات‌های مشارکتی صنعتی، امنیت سایبری، دستیاران شناختی و دفاع اهمیت دارد.

با وجود برنامه ریزی، ماشین را قادر می‌سازد تا به طور خودکار یک توالی رویه‌ای از اقدامات را برای دستیابی به اهداف خاص در حین بهینه‌سازی معیارهای عملکرد خاص پیدا کند. از منظر برنامه ریزی، یک سیستم در یک حالت خاص قرار دارد. اجرای یک عمل می‌تواند وضعیت سیستم را تغییر دهد و توالی اقدامات پیشنهادی توسط برنامه ریزی می‌تواند سیستم را از حالت اولیه به حالت هدف نزدیک‌تر کند.

کاربردهای سیستم های هوش مصنوعی

از آنجایی که سیستم‌های هوش مصنوعی قادر به کمک یا در برخی موارد خودکارسازی تصمیم‌گیری، ارائه توصیه‌ها و کمک به خودکارسازی وظایف خاص هستند. کاربردهایی در صنایع مختلف از جمله:

  • کشاورزی و زراعت
  • خودرو
  • بانکداری و فناوری مالی
  • دفاع
  • آموزش
  • انرژی
  • مراقبت های بهداشتی
  • قانون
  • تولید
  • رسانه و سرگرمی
  • واقعیت مخلوط
  • بخش عمومی
  • خرده فروشی و بازاریابی
  • امنیت
  • فناوری فضایی
  • ارتباطات از راه دور

نمونه‌هایی از کاربردهای هوش مصنوعی در 10.2 تا 10.4 ارائه شده است.

کشف تقلب

تقلب استفاده از فریب برای کسب سود است. تقلب در بسیاری از حوزه ها از جمله:

  • پول و اسناد جعلی
  • کارت های اعتباری و اسناد مسروقه
  • ارتباطات شخصی مانند ایمیل
  • هویت های جعلی یا دزدیده شده

در زیر نمونه‌هایی از کاربردهای هوش مصنوعی در کشف تقلب آورده شده است:

  • شناسایی هزینه های جعلی کارت اعتباری
  • تشخیص درخواست های وام یا اعتبار جعلی
  • بازرسی ادعاهای بیمه ای جعلی
  • شناسایی دسترسی غیرمجاز به حساب

وسایل نقلیه خودکار

پیش‌بینی می‌شود که وسایل نقلیه بدون راننده رایج شوند. امروزه بسیاری از فناوری‌های کمکی هوش مصنوعی به عنوان ویژگی‌های کمکی راننده در خودروها اعمال می‌شوند. در زیر نمونه‌هایی از کاربردهای هوش مصنوعی در وسایل نقلیه آورده شده است:

  • مسیریابی بهینه (به عنوان مثال یافتن سریعترین مسیر با توجه به شرایط ترافیکی فعلی)
  • تغییر خط خودکار
  • اجتناب از اشیاء (به عنوان مثال دستکاری خودکار ترمز، دریچه گاز و فرمان بر اساس تفسیر سیگنال ها از دوربین ها و سنسورهای تشخیص نور و محدوده)
  • سفر کاملاً خودکار از نقطه A به نقطه B

وسایل نقلیه خودکار به فناوری‌های هوش مصنوعی مانند بینایی ماشین و برنامه‌ریزی متکی هستند.

نگهداری و تعمیرات (نت)

برخلاف تعمیر و نگهداری پیشگیرانه، که در آن تعمیر و نگهداری بر اساس امید به زندگی اجزا (به عنوان مثال میانگین زمان بین خرابی) است، تعمیر و نگهداری پیش‌بینی، سرویس یا تعویض اجزا را بر اساس مشاهدات رفتار یا عملکرد فعلی آنها و طول عمر مورد انتظار اجزا ارائه می‌دهد. در زیر نمونه‌هایی از کاربردهای هوش مصنوعی در نگهداری پیش‌بینی آورده شده است:

  • تشخیص حفره های زیر ریل راه آهن (که می تواند منجر به خروج از ریل شود)
  • شناسایی آسفالت ترک خورده یا آسیب دیده
  • بازبینی یاتاقان های معیوب در موتورهای الکتریکی
  • تشخیص نوسانات غیر عادی برق در سیستم های برق رسانی

مراجع

این مقاله از استاندارد ISO 22989:2022 برداشت شده است.

برای مطالعه بیشتر:

چه مشاغلی در مقابل هوش مصنوعی در امان خواهد بود؟

پیمایش به بالا