Големите езикови модели (LLM) са по-склонни да криминализират потребителите, които

...
Големите езикови модели (LLM) са по-склонни да криминализират потребителите, които
Коментари Харесай

Установено е, че AI моделите показват езикови пристрастия, като препоръчват на чернокожи обвиняеми да бъдат „осъдени на смърт“

Големите езикови модели (LLM) са по-склонни да криминализират потребителите, които употребяват афроамерикански британски, демонстрират резултатите от ново изследване на университета Корнел.

Диалектът на езика, който говорите, взема решение какво ще каже изкуственият разсъдък (AI) за характера ви, опциите ви за работа и дали сте нарушител.

Това е последният резултат от Предпечатно изследване на университета Корнел за „ скрития расизъм “ на огромните езикови модели (LLM), логаритъм за задълбочено образование, който се употребява за обобщаване и прогнозиране на текстове, звучащи като човек.

ChatGPT и GPT-4 на OpenAI, Meta LLaMA2 и френският Mistral 7B са образци за огромни езикови модели. Euronews Next се свърза с OpenAI и Meta за коментар.

Главният изпълнителен шеф на Гугъл признава, че отговорите на модела на Gemini AI са посочили „ пристрастност “ и споделя, че компанията работи, с цел да го поправи

Проучването направи съвпадащо проучване на маскиро...

Прочетете целия текст »

Източник: worldnews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР