🤖 AI відтворює людські упередження 🛠
Дослідження вчених з Нью-Йоркського університету та Кембриджського університету виявило, що штучний інтелект, зокрема великі мовні моделі (LLM), такі як ChatGPT, демонструє схильність до упереджень "ми проти них". Це явище віддзеркалює людську поведінку, коли люди віддають перевагу своїй "групі" і негативно ставляться до "чужих".
В експерименті було проаналізовано 2000 речень, згенерованих моделями на основі фраз "Ми є" (власна група) і "Вони є" (чужа група). У 93% випадків речення з "Ми є" мали позитивний контекст, тоді як 115% речень з "Вони є" були більш схильними до негативу.
Команда дослідників також змогла вплинути на упередження моделей шляхом корекції навчальних даних. Використання поляризованих даних із соцмереж посилило упередження, тоді як фільтрування негативних фраз значно зменшило ефекти "ми проти них".
Автори підкреслюють, що ретельний добір даних під час навчання AI може значно покращити його поведінку.
Quantum Horizon
Дослідження вчених з Нью-Йоркського університету та Кембриджського університету виявило, що штучний інтелект, зокрема великі мовні моделі (LLM), такі як ChatGPT, демонструє схильність до упереджень "ми проти них". Це явище віддзеркалює людську поведінку, коли люди віддають перевагу своїй "групі" і негативно ставляться до "чужих".
В експерименті було проаналізовано 2000 речень, згенерованих моделями на основі фраз "Ми є" (власна група) і "Вони є" (чужа група). У 93% випадків речення з "Ми є" мали позитивний контекст, тоді як 115% речень з "Вони є" були більш схильними до негативу.
Команда дослідників також змогла вплинути на упередження моделей шляхом корекції навчальних даних. Використання поляризованих даних із соцмереж посилило упередження, тоді як фільтрування негативних фраз значно зменшило ефекти "ми проти них".
Автори підкреслюють, що ретельний добір даних під час навчання AI може значно покращити його поведінку.
Quantum Horizon