تکنولوژیهوش مصنوعی

عدم اعتماد به نتایج هوش مصنوعی

بیشتر پژوهشگران سورس کد دیگر نمی‌توانند نتایج برنامه‌های هوش مصنوعی خود را که قبلا از آن استفاده کرده‌اند یا داده‌هایی را که با آنها بخش یادگیری (train) انجام شده است، تکرار کنند که در نتیجه اجرای وسیع آن را می‌تواند دشوار کند.

برای اینکه مطالعه‌ای از لحاظ علمی قاطع تلقی گردد، باید دیگر پژوهشگران نیز بتوانند تحت همان شرایط آن نتایج را دوباره کسب کنند؛ اما با توجه به اینکه بیشتر پژوهشگران شاخه‌ی هوش مصنوعی، منبع کدی را که در تولید الگوریتم‌هایشان استفاده کرده‌اند، منتشر نمی‌کنند، انجام تکرار برای دیگر پژوهشگران امکان پذیر نیست.

بر اساس گزارشات منتشر شده، اود-اریک گاندرسون، دانشمند بخش کامپیوتر، در نشست انجمن پیشرفت هوش مصنوعی (AAAI) بیان کرد که او تنها توانسته به 6% از 400 الگوریتمی که در دو کنفرانس هوش مصنوعی چند سال اخیر ارائه‌شده به کد آن‌ها دسترسی پیدا کند. از هر 3 مطالعه تنها یک مورد، اطلاعاتی را که برای آزمون برنامه استفاده کرده بود، به اشتراک گذاشته بود و تنها نصفی از آن‌ها خلاصه‌ای را در مورد الگوریتم استفاده‌شده با جزئیاتی محدود گزارش کرده بودند.

تکرار و آزمایش موضوعی برای اثبات عدم تصادفی بودن نتایج آن و اینکه مطمئن شد از اطلاعات بدست آمده آزمایش در جهان واقعی نیز می‌تواند مورد استفاده قرار گیرد. الزامی است. یک پژوهش هوش مصنوعی که تنها توسط پدیدآورندگانش مورد آزمون قرار گرفته، ممکن است روی کامپیوتر دیگری و یا داده‌ی اولیه متفاوتی اجرا شود، نتایج مشابهی ارائه ندهد. اگر هدف تنها انجام دادن کار خاصی توسط هوش مصنوعی باشد، این موضوع اصلا جالب نیست. شما می‌خواهید مطمئن باشید برنامه‌ای که اجرا می‌کنید، کار مد نظرتان را به‌خوبی انجام می‌دهد.

این موضوع چندان برای آینده‌ی صنعت هوش مصنوعی جالب نیست. در چند سال اخیر هوش مصنوعی شاهد رونق چشم گیری بوده و احتمالا در سال‌های آینده هم این پیشرفت دیده خواهد شد. اما با این وضعیت دیگر نمی‌توان به طور قطعی به نتایج آن اطمینان کرد. قابلیت تکرار این نوع آزمایش‌ها باید مورد توجه قرار گیرد.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا