Lisa Pouels, afgestudeerd data scientist, onderzocht fairness in GraphRAG-systemen en werd hiervoor genomineerd voor de Responsible Internet Prijs van de Koninklijke Hollandse Maatschappij der Wetenschappen.
Haar onderzoek vergeleek verschillende taalmodellen op hun vermogen om vooroordelen te herkennen en te vermijden bij het beantwoorden van ambigue vragen. De resultaten toonden dat Qwen 2.5 en GPT 4.1 nano het best presteerden in het herkennen van onduidelijke vragen, terwijl DeepSeek uitblonk in fairness.
Lisa ontdekte dat zelfs kleine veranderingen in prompt-formulering grote invloed hebben op de eerlijkheid van antwoorden. Ze benadrukt dat fairness contextafhankelijk is en per toepassing anders gedefinieerd moet worden.
Onderwerpen
Genoemde entiteiten: Koninklijke Hollandse Maatschappij der Wetenschappen - OpenAI - Alibaba - DeepSeek - Mistral - Llama - Falcon
AigencySchrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!