DutCH_CourA_64
Member
Voor iedereen die het 'onbegrijpelijk' vindt dat AP nog zoveel fout doet, verdiep je eens in wat wordt genoemd 'adversial example'. Komt er in het kort op nieuw dat zelfs kleine aanpassingen in de waarneming (input) die ons niet zouden opvallen toch heel verkeerde output (reacties van de AP) kunnen leiden. Er staat aardige artikelen over op internet, waaronder dezen:
Breaking neural networks with adversarial attacks - Towards Data Science
Evolving AI Lab - University of Wyoming
Belangrijke constatering: slechts een hele kleine aanpassing in de input, kan leiden tot een gigantisch ander resultaat dan beoogd. In dat licht bezien doet de AP het niet eens zo slecht ...
Breaking neural networks with adversarial attacks - Towards Data Science
Evolving AI Lab - University of Wyoming
Belangrijke constatering: slechts een hele kleine aanpassing in de input, kan leiden tot een gigantisch ander resultaat dan beoogd. In dat licht bezien doet de AP het niet eens zo slecht ...
Last edited: