|
وقتی میخوای یه مدل هوشمصنوعی بسازی که مثلِ مغزِ انسان چیزی رو تشخیص بده، تو مرحلهی اول با یک مقدار مشخصی دیتا، بهش آموزش میدی. مثلاً ۱۰۰۰ تا عکس گربه بهش میدی، بعد مدل، اون عکسها رو ورمیداره، ویژگیهاش رو شناسایی میکنه، مهمهاش رو استخراج میکنه، مثل حالتِ گوش، چشم، بینی، دم، رنگ. و این خصوصیات رو میگیره و باهاشون مدلِ "گربه بودن" میسازه. یعنی الآن بهش آموزش دادی که بتونه گربه رو تشخیص بده.
مثل وقتی که به یه بچهی پنج ساله گربههای توی کوچهها رو نشون میدی و بهش میگی ببین اسم این حیوون گربهست.
بعد از آموزش، میریم سراغ مرحله دوم یعنی تست؛ تو این مرحله اگه من به مدلم، یه عکس دیگه (بغیر از اون هزارتایی که باهاش به مدل آموزش دادم) بدم، میتونه تشخیص بده که آیا اون عکس، ویژگیهای گربه بودن رو داره یا نه؛ یا بعبارتی آیا از مدل گربه بودن پیروی میکنه یا نه.
اگه در مرحله آموزش، تعداد عکسهای گربهای که برای یادگیری به مدل میدم کم و ناکافی باشه و محدود به مدل خاصی از گربه باشه، مثلاً ۵ تا عکسِ گربهی سیاه، باعث میشه مدل به اندازهی کافی آموزش نبینه. باعث میشه به اشتباه، فکر کنه همهی گربهها سیاه هستن. به این حالت میگیم بایاسِ بالا.
وقتی بایاس مدل، بالا باشه، یعنی یه جورایی تعصبش بالاست. یعنی خیلی سخت میتونه تغییر کنه. دست از عقایدش نمیکشه. عقایدش رو یه مسیر مونده. روی یه خط و یه عقیده و یه تفکر در حرکته و مسیرش رو تکون نمیده. نمیتونه نظرات مختلف، جهتهای مختلف و پوینت آو ویو های مختلف رو ببینه و درک کنه. روی یه خط و جهت و فکر پابرجاست و متعصبانه روی همون عقاید میایسته.
حالا اگه برای اینکه به مدلم بفهمونم گربه چیه، عکسهای بسیار زیادی از گربهسانان بهش بدم، مدل گیج میشه، واریانسش میره بالا. (به عبارت تخصصی تر، اگه تصویرهایی که بهش میدم نویزی، خراب، و دارای دادههای پرت و غلط باشه. واریانس رو بالا میبره)
واریانس بالا یعنی مدلت، یه نظرو میشنوه، میگه عه راست میگهها؛ یه نظر دیگه رو میشنوه و میگه عه اینم به نظر درسته و همینطور الی آخر. مدام در تغییر عقیدهست. دیگه رو یه جهت نیست، شبیه هزارتو پیچ میخوره بس که مثل باد اینور و اونور میره. تو تشخیص گیج میشه و برای اینکه به تشخیص درست برسه اذیت میشه؛ و در حالیکه مدام خیال میکنه عقایدش درستن، ممکنه به غلطترینِ نتیجهها برسه.
واریانس بالا سمه. بایاس بالا هم سمه. درست زمانیکه ما سعی میکنیم مدلمون فیت شه، این دو تا مشکل میتونن باعثِ آندرفیت یا اُوِرفیت شدنِ مدلِ ما شن.
اجتماع ما الآن به این دو دسته تقسیم شده. دستهی واریانس بالاها ودستهی بایاسبالاها. که هر دو تاشون باعث اُورفیت و آندرفیت شدن مدلِ اجتماع ما میشن. یعنی اجتماع نمیتونه در حد درستی آموزش ببینه و در نتیجه در مرحلهی تست هم به درستی عمل نمیکنه و در نهایت هم کلاً مدل اشتباهی از آب درمیاد.
نتیجه؟ جنگ بیپایانِ فکری و عقیدتی، دودستگی و چنددستگی اجتماع، و در آخر هم برهم خوردگی آرامش در سطوح مختلف اجتماعی و فرهنگی و سیاسی.
راه حل؟ درست و کافی آموزش دیدن مدل. که نه پیچیدگیِ زیادِ مدل غیرخطی توش باشه، نه مدل خطیای که خوب آموزش ندیده و خوب نمیفهمه و خشکمغزه.
برای آموزشِ کافی باید دیتاستِ درستی داشت. دیتاستِ تمیز. کافی. خالی از دادههای کثیف و اشتباه و گمراهکننده و نویز.
پیادهسازی؟ سخت. خیلی سخت... چرا؟ چون مغزها یا خشکن یا پوسیده یا انقدر واریانسشون بالاست که برای فرار از خشکمغزها به هر مسیر و بادی تن میدن...
نتیجه؟ انتخاب! بین تسلیم شدن یا درست ادامه دادن.
این یکی از بهترین پستهایی بود که توی این مدت خوندم!
+ ولی تفاوت آدمی با سیستم کامپیوتری اینه که هرکدوم کدشون با اون یکی فرق داره، نمیدونم چندتا گربه باید بهشون نشون بدم تا گربهها رو تشخیص بدن و برای هرکسی باید یه جوری فرق بین پلنگ و گربه رو توضیحداد که بتونه تمیزشون بده.
شاید بهخاطر همینه که دنیا همیشه درحال تغییر کردنه. یه روز فقط گربه سیاها گربه هستن، یه روز شیرها هم گربهن.