سوگیری های هوش مصنوعی به اندازه انسان هاست
سرگرمی کامپیوتری: مطالعه ای جدید نشان میدهد که «هوش مصنوعی» می تواند به اندازه انسان ها بیش از اندازه مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد.
به گزارش سرگرمی کامپیوتری به نقل از ایسنا، گرایش های غیرمنطقی به طور معمول در سامانه های «هوش مصنوعی» ظاهر می شوند و مفید بودن آنها را زیر سوال می برند.
بااینکه انسان و «هوش مصنوعی» بسیار متفاوت فکر می کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم می گیرد.
به نقل از ال اس، در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چت جی پی تی»(ChatGPT) خیلی از رایج ترین «سوگیری های»(biases) تصمیم گیری انسانی را از خود نشان داد. این نتایج، نخستین یافته های در رابطه با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چت جی پی تی» است.
نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چت جی پی تی» را پشتیبانی می کنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در مقابل نقص های انسانی مصون نیست. بگفته پژوهشگران، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد.
«یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده تجاری ایوی»(Ivey) اظهار داشت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راهکار واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده می نمایند، بهتر است با احتیاط عمل کنند.
این مطالعه «سوگیری های انسانی» شناخته شده همچون «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از اندازه و «اثر برخورداری»(endowment effect) را در نظر گرفت و آنها را در دستورالعمل های داده شده به «چت جی پی تی» اعمال کرد تا ببیند آیا در همان تله هایی که انسان ها گرفتار می شوند، قرار می گیرد یا خیر.
«خطرگریزی» به مفهوم ترجیح پذیرش خطر کم تر و ممانعت از خطر غیر لازم است.
«اثر برخورداری» نیز نوعی سوگیری عاطفی است که موجب می شود افراد چیزی را که دارند بسیار با ارزش تر از ارزش واقعی آن تصور کنند.
تصمیم گیری های منطقی تنها در بعضی موارد
دانشمندان از «مدل های زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در حوزه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تامین کنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری های انسانی» را تقلید می کند یا خیر. آنها همین طور قصد داشتند که متوجه شوند آیا این مدلها هنگام پرسیدن سوالات از حوزه های مختلف تجاری هم این کار را انجام می دهند یا خیر.
یکی از «مدل های زبانی بزرگ» موسوم به «GPT-۴» در جواب مسائلی با راهکارهای ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق محور نشان داد، اما در شبیه سازی های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت بات اغلب ترجیحات غیرمنطقی را که انسان ها تمایل به نشان دادن آن دارند، انتخاب می کرد.
پژوهشگران گفتند: «GPT-۴» حتی از انسان ها نیز تمایل قوی تری برای قطعیت نشان میدهد.
این مساله تمایل «هوش مصنوعی» به نتایج ایمن تر و قابل پیش بینی تر هنگام انجام وظایف مبهم اشاره دارد.
با اهمیت تر از همه، رفتارهای چت بات ها در واکنش به سوالات در مسایل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتا پایدار باقی ماند.
این مطالعه نتیجه گرفت که «سوگیری های» نشان داده شده تنها محصول مثال های حفظ شده نیستند و قسمتی از نحوه استدلال «هوش مصنوعی» هستند.
یکی از نتایج اعجاب انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-۴» همیشه پاسخ های سوگیرانه می داد.
همین طور این مدل تمایل بیشتری به «مغالطه دست داغ»(hot-hand) نسبت به «GPT ۳.۵» نشان داد.
«مغالطه دست داغ» یکی از «سوگیری های شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم می بریم یا می بازیم، به اصطلاح داغ یا سرد می شویم و تصور می نماییم که این برد یا باخت پی در پی مقرر است بازهم ادامه پیدا کند. در صورتیکه بازهم برمبنای علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است.
بر خلاف مدلها، «چت جی پی تی» موفق شد از تعدادی از «سوگیری های» رایج انسانی همچون «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه هزینه غرق شده»(Sunk Cost Fallacy) اجتناب کند.
«غفلت از نرخ پایه» به مفهوم اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است.
«مغالطه هزینه غرق شده» نیز زمانی رخ می دهد که شخص فقط بدین سبب به تصمیم خود پایبند است که پول قبلا خرج شده است و نمی خواهد احساس کند که آنرا هدر داده است.
بگفته محققان، «سوگیری های» شبه انسانی در «چت جی پی تی» از داده های آموزشی ناشی می شود که شامل «سوگیری های شناختی» و اکتشافی است که انسان ها از خود نشان می دهند. این گرایش ها در وضعیت خاص، تقویت می شوند.
این تقویت زمانی که انسان پاسخ های محتمل را به پاسخ های منطقی ترجیح می دهد، بیشتر می شود. وقتی «هوش مصنوعی» با وظایف مبهم تری روبرو می شود، بیشتر به سوی الگوهای استدلال انسانی تا منطق سامانه ای متمایل می شود.
«چن» اظهار داشت: اگر یک تصمیم گیری دقیق و بی طرفانه می خواهید، از «چت جی پی تی» در عرصه هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین حساب باشد.
با این وجود، وقتی نتیجه بیشتر به ورودی های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می کند. حتی اگر دستورالعمل های کاربر برای اصلاح «سوگیری های» شناخته شده باشد.
«مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مک مستر»(McMaster) و نویسنده این مقاله می گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می گیرد. این تصمیم گیری ها به نظارت و دستورالعمل های اخلاقی نیاز دارد. در غیر این صورت، ما بجای بهبود تفکر ناقص، آنرا در معرض خطر اتوماسیون قرار می دهیم.
این یافته ها که در مجله Manufacturing & Service Operations Management انتشار یافته است.
منبع: pcfun.ir
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب