Lovelace 2.0

/
/
/

آزمون جدید با هدف نشان دادن اینکه آیا رایانه می تواند داستان، شعر و نقاشی با کیفیت انسانی تولید کند یا خیر.

Lovelace 2.0 چیست؟
آزمون جدیدی که هدفش این است که آیا هوش مصنوعی می تواند مانند انسان عمل کند یا خیر. این آزمون توسط مارک ریدل از موسسه فناوری جورجیا در حال توسعه است.

آیا شبیه تست تورینگ است؟
بله، اما فراتر از آن است. تست تورینگ – توسط آلن تورینگ در سال ۱۹۵۰تنظیم شد – ارزیابی می کند که آیا یک کامپیوتر می تواند یک انسان را در گفتگو جعل هویت کند و گروهی از قاضیان را فریب دهد. لاولیس ۲٫۰ آزمون پیچیده تری است، زیرا یک کامپیوتر را برای خلق داستان، شعر یا نقاشی که توسط یک انسان ساخته شده به چالش می کشد.  فکر پشت این تست این است که خلاقیت یکی از ویژگی های اصلی اسنان است که او را از ماشین متمایز می سازد. پروفسور ریدل می گوید که یک ماشین اگر مصنوع خلاقی را از یک زیر مجموعه از ژانرهای هنری که  نیاز به سطح هوش انسانی دارد توسعه دهد و این مصنوع برخی از محدودیت های خلاق تعیین شده توسط ارزیاب انسانی را تامین سازد، این ماشین تایید خواهد شد. شاید این توضیح بخشی از تست باشد- اگر رایانه بتواند منظور او را درک کند، آن گاه کیفیت انسانی را نشان داده است.

آیا می توانید درکی از آن داشته باشید؟
او تلاش می کند تا بگوید که رایانه باید اثری هنری را با استفاده از معیارهای انسانی خلق کند. ریدل در مقاله خود نمونه ای از نرم افزاری را بیان می کند که از آن خواسته شده تا داستانی را خلق کند که پسری عاشق دختری می شود، بیگانگان پسر را می ربایند و دختر با کمک گربه سخنگو دنیا را نجات می دهد. کیفیت این داستان مهم نیست. آنچه مهم است شامل کردن جزئیات خاص مورد درخواست انسان است. با این حال، برخی از متخصصان می پرسند این تست چقدر مفید خواهد بود، آنها می گویند برنامه های رایانه ای خلاقیت را قبلاً با نوشتن موسیقی ثابت کرده اند.

چرا این تست لاولیس نامیده می شود؟
همانند تست تورینگ، این تست نامش را از ریاضیدان انگلیسی و پیشگام محاسبات گرفته است: آدا لاولیس. در دهه ۱۸۴۰، او با چارلز بابیج روی موتور تحلیلی بابیج کار می کرد، که اولین الگوریتم ماشین بود. برای اطلاعات بیشتر درباره زندگی جالب توجه این زن روی ویکی پدیا به سایت فوق مراجعه نمایید: www.snipca.com/14558.

رایانه اخیراً تست تورینگ را تایید نکرد؟
بله، در ماه ژوئن، در رقابت برای هوش مصنوعی در رویال سوشایتی در لندن، برنامه رایانه ای به نام Eugene goostman 10 قاضی از ۳۰ قاضی را فریب داد که فکر می کردند این رایانه پسر ۱۳ ساله اوکراینی است.
اما نتیجه مورد بحث عده ای از متخصصان بود، از جمله ری کورزول، مدیر مهندسی در گوگل. او گفت: « من با این برنامه فریب دادم و هیچ ردی باقی نماند. Eugene مکالمات را نگه نمی دارد، کلمات را تکرار می کند و اغلب با نتایج کاذب مکالمات معمولی جواب می دهد.

آیا لاولیس ۱٫۰ نیز وجود دارد؟
بله، در سال ۲۰۰۱٫ این آزمون بخشی از هوش مصنوعی را برای تولید آیتم خلاقی با استفاده از روشی که نتوانست توسط انسان توضیح داده شود به چالش کشاند. اما ریدل می گوید لاولیس ۱٫۰ معایبی داشت زیرا به سختی می توان گفت که رایانه تایید شده بود یا خیر.

آیا هر رایانه ای در این تست قبول می شود؟
ریدل بسیار بدبین است و می گوید هیچ سیستم داستان سرایی نمی تواند در تست لاولیس ۲٫۰ قبول شود. به خاطر داشته باشید، او نمی داند چگونه این مقاله نوشته می شود.

نظر بدهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

It is main inner container footer text