Systemy Sztucznej Inteligencji są bardzo podatne na intencjonalne ataki. Na prostym przykładzie, związanym z autonomicznymi pojazdami, pokazuje jak to się robi. Ku przestrodze w kontekście bezmyślnego stosowania tych systemów w praktyce, zwłaszcza w krytycznych zastosowaniach.
______________________________________
Materiały źródłowe:
[1] Jerzy Surma, "Hakowanie Sztucznej Inteligencji" (ceneo): https://www.ceneo.pl/96739885#cid=43939&crid=545231&pid=25555
[2] Andrej Karpathy, "Wykład CS231": https://youtube.com/playlist?list=PLkt2uSq6rBVctENoVBg1TpCC7OQi31AlC
[3] Tesla AI day 2021: https://www.youtube.com/live/j0z4FweCy4M?feature=share
[4] Traffic Sign Classification: traffic-sign-classification-with-keras-and-deep-learning
________________________________________
🎥 Ten Podcast na YouTube: https://www.youtube.com/JerzySurmaAndrzej
📌 Strona domowa: https://jerzysurma.com
📃 Newsletter: https://jerzysurma.com/index.php/landing-page/
☕️ Możesz mi postawić kawę: https://buycoffee.to/jerzysurma