Listen

Description

Systemy Sztucznej Inteligencji są bardzo podatne na intencjonalne ataki. Na prostym przykładzie, związanym z autonomicznymi pojazdami, pokazuje jak to się robi. Ku przestrodze w kontekście bezmyślnego stosowania tych systemów w praktyce, zwłaszcza w krytycznych zastosowaniach.

______________________________________

Materiały źródłowe:

[1] Jerzy Surma, "Hakowanie Sztucznej Inteligencji" (ceneo): https://www.ceneo.pl/96739885#cid=43939&crid=545231&pid=25555

[2] Andrej Karpathy, "Wykład CS231": https://youtube.com/playlist?list=PLkt2uSq6rBVctENoVBg1TpCC7OQi31AlC

[3] Tesla AI day 2021: https://www.youtube.com/live/j0z4FweCy4M?feature=share

[4] Traffic Sign Classification: traffic-sign-classification-with-keras-and-deep-learning


________________________________________

🎥 Ten Podcast na YouTube: https://www.youtube.com/JerzySurmaAndrzej

📌 Strona domowa: https://jerzysurma.com

📃 Newsletter: https://jerzysurma.com/index.php/landing-page/

☕️ Możesz mi postawić kawę: https://buycoffee.to/jerzysurma