تو رشته‌ی من مبحثی وجود داره به اسم بایاس/واریانس. می‌خوام سعی کنم به زبونِ ساده‌ و نسبتاً غیرتخصصی راجع‌ بهش حرف بزنم.
وقتی می‌خوای یه مدل هوش‌مصنوعی بسازی که مثلِ مغزِ انسان چیزی رو تشخیص بده، تو مرحله‌ی اول با یک مقدار مشخصی دیتا، بهش آموزش می‌دی. مثلاً ۱۰۰۰ تا عکس گربه بهش میدی، بعد مدل، اون عکس‌ها رو ورمیداره، ویژگی‌هاش رو شناسایی می‌کنه، مهم‌هاش رو استخراج می‌کنه، مثل حالتِ گوش، چشم، بینی، دم، رنگ. و این خصوصیات رو می‌گیره و باهاشون مدلِ "گربه بودن" می‌سازه. یعنی الآن بهش آموزش دادی که بتونه گربه رو تشخیص بده.
مثل وقتی که به یه بچه‌ی پنج ساله گربه‌های توی کوچه‌ها رو نشون میدی و بهش میگی ببین اسم این حیوون گربه‌ست.
بعد از آموزش، میریم سراغ مرحله دوم یعنی تست؛ تو این مرحله اگه من به مدلم، یه عکس دیگه (بغیر از اون هزارتایی که باهاش به مدل آموزش دادم) بدم، می‌تونه تشخیص بده که آیا اون عکس، ویژگی‌های گربه بودن رو داره یا نه؛ یا بعبارتی آیا از مدل گربه بودن پیروی می‌کنه یا نه. 
اگه در مرحله آموزش، تعداد عکس‌های گربه‌ای که برای یادگیری به مدل میدم کم و ناکافی باشه و محدود به مدل خاصی از گربه باشه، مثلاً ۵ تا عکسِ گربه‌ی سیاه، باعث میشه مدل به اندازه‌ی کافی آموزش نبینه. باعث میشه به اشتباه، فکر کنه همه‌‌ی گربه‌ها سیاه هستن. به این حالت میگیم بایاسِ بالا.
وقتی بایاس مدل، بالا باشه، یعنی یه جورایی تعصبش بالاست. یعنی خیلی سخت می‌تونه تغییر کنه. دست از عقایدش نمی‌کشه. عقایدش رو یه مسیر مونده. روی یه خط و یه عقیده و یه تفکر در حرکته و مسیرش رو تکون نمی‌ده. نمی‌تونه نظرات مختلف، جهت‌های مختلف و پوینت آو ویو های مختلف رو ببینه و درک کنه. روی یه خط و جهت و فکر پابرجاست و متعصبانه روی همون عقاید می‌ایسته. 
حالا اگه برای اینکه به مدلم بفهمونم گربه چیه، عکس‌های بسیار زیادی از گربه‌سانان بهش بدم، مدل گیج میشه، واریانسش میره بالا. (به عبارت تخصصی تر، اگه تصویرهایی که بهش میدم نویزی، خراب، و دارای داده‌های پرت و غلط باشه. واریانس رو بالا میبره)
واریانس بالا یعنی مدلت، یه نظرو می‌شنوه، میگه عه راست میگه‌ها؛ یه نظر دیگه رو می‌شنوه و میگه عه اینم به نظر درسته و همینطور الی آخر. مدام در تغییر عقیده‌ست. دیگه رو یه جهت نیست، شبیه هزارتو پیچ می‌خوره بس که مثل باد اینور و اونور می‌ره. تو تشخیص گیج میشه و برای اینکه به تشخیص درست برسه اذیت می‌شه؛ و در حالیکه مدام خیال می‌کنه عقایدش درستن، ممکنه به غلط‌ترینِ نتیجه‌ها برسه.
واریانس بالا سمه. بایاس بالا هم سمه. درست زمانی‌که ما سعی می‌کنیم مدلمون فیت شه، این دو تا مشکل می‌تونن باعثِ آندرفیت یا اُوِرفیت شدنِ مدلِ ما شن.
اجتماع ما الآن به این دو دسته تقسیم شده. دسته‌ی واریانس بالاها ودسته‌ی بایاس‌بالاها. که هر دو تاشون باعث اُورفیت و آندرفیت شدن مدلِ اجتماع ما میشن. یعنی اجتماع نمی‌تونه در حد درستی آموزش ببینه و در نتیجه در مرحله‌ی تست هم به درستی عمل نمی‌کنه و در نهایت‌ هم کلاً مدل اشتباهی از آب درمیاد. 
نتیجه؟ جنگ بی‌پایانِ فکری و عقیدتی، دودستگی و چنددستگی اجتماع، و در آخر هم برهم خوردگی آرامش در سطوح مختلف اجتماعی و فرهنگی و سیاسی.
راه حل؟ درست و کافی آموزش دیدن مدل. که نه پیچیدگی‌ِ زیادِ مدل غیرخطی توش باشه، نه مدل خطی‌ای که خوب آموزش ندیده و خوب نمی‌فهمه و خشک‌مغزه.
برای آموزشِ کافی باید دیتاستِ درستی داشت. دیتاستِ تمیز. کافی. خالی از داده‌های کثیف و اشتباه و گمراه‌کننده و نویز. 
پیاده‌سازی؟ سخت. خیلی سخت... چرا؟ چون مغزها یا خشکن یا پوسیده یا انقدر واریانسشون بالاست که برای فرار از خشک‌مغزها به هر مسیر و بادی تن می‌دن... 
نتیجه؟ انتخاب! بین تسلیم شدن یا درست ادامه دادن.