Listen

Description

Send a text

AI biedt veelbelovende kansen, maar brengt ook serieuze risico’s met zich mee — vooral als we vergeten te evalueren wat we precies gebruiken. In deze aflevering van de greatminds podcast gaan Hildo van Es en data scientist Robin Smits in op de noodzaak van het evalueren van open source LLM’s (Large Language Models). Waarom moet je niet blind vertrouwen op bestaande modellen? Wat zijn de risico’s als je dat wel doet?

🔑 Belangrijkste inzichten:

📱 Connect met onze gast en host: 

Robin Smits | Hildo van Es 

⏱ Tijdstempels:

00:00 – Introductie Hildo en Robin 

01:43 – Waarom je altijd moet evalueren: de DPD-chatbot en Cortana 

03:32 – Wat is evalueren in de context van LLMs? 

05:09 – Hugging Face en het Open LLM Leaderboard 

08:19 – Van GLUE naar SuperGLUE naar moderne benchmarks 

09:56 – Meertalige evaluatie en het Nederlandse leaderboard 

11:58 – Fine-tuning op je eigen dataset: moet je opnieuw testen? 

19:20 – Chatbot Arena & subjectieve vergelijking 

20:35 – Kosten, hardware en stroomverbruik 

21:40 – Tiny Benchmarks: minder data, bijna dezelfde betrouwbaarheid 

22:47 – Vooruitblik op volgende aflevering over bias