Welcome to Tesla Motors Club
Discuss Tesla's Model S, Model 3, Model X, Model Y, Cybertruck, Roadster and More.
Register

Software 2020.36.x

This site may earn commission on affiliate links.
Alle verkeerslichten werden gezien! Snelheid van reageren is ook prima. En nu ook voetgangers en fietsen, veel meer dan hiervoor.

Pieptoon voor groen heeft te veel vertraging: op zich prima functie, maar nu niet. Kan ook van MCU1 afhangen.

Pieptoon bij M3 met HW3.0 heeft nauwelijks vertraging, dus denk inderdaad MCU1. Wat mij verder opvalt, vanaf nu is alles wat geen pion is automatisch maar een container volgens de visualisatie.

Overigens we zijn alweer in week 40 in USA, dus we kunnen software 2020.40 verwachten op zeer korte termijn.
 
  • Informative
Reactions: Hbrink
Nee, dat is niet correct (als ik je goed begrijp). De autopilot computer draait meerdere zeer geavanceerde neurale netwerken, voornamelijk voor herkenning van objecten, en het plaatsen van lijnen en rijdbare gebieden. De nieuwe HW3 computer is juist specifiek ontworpen voor het draaien van extreem grote neurale netwerken.
Verder doet de autopilot nog veel met door mensen geprogrammeerde regeltjes (noemen ze software 1.0) maar dat wordt stukje bij beetje overgenomen door neural nets (software 2.0).

Jullie hebben beide gelijk! ja je hebt o.a. het JOLO netwerk actief draaien in je eigen auto echter je netwerk leert niks van het gedrag van jou of van je auto lokaal... dit deel gebeurd bij tesla. Enige wat jou auto doet is data (scores van items lager dan 50%) en beelden doorgeven aan tesla om daar het model opnieuw te kunnen en trainen. Vervolgens krijg jij een nieuwe versie van het model in je auto dat weer actief is en dus anders kan reageren.
 
  • Informative
Reactions: Hbrink
Pfoe wat zie ik hier veel misverstanden over neurale netwerken en software langskomen. Zal eens een poging te doen het toegankelijk inzichtelijk te maken.

Software wordt vanouds ontwikkeld door 1 of meer bestanden met 'broncode' te compileren op een computer tot een executable ("iets dat uitgevoerd kan worden"), zoals `winword.exe` voor MS Word. Als er bugs opgelost of features toegevoerd worden herhaalt iedere keer zich datzelfde proces - alle broncodes tezamen worden weer opnieuw gecompileerd tot een nieuwe executable. Dat uitvoeren gebeurt al meer dan 50 jaar primair op een Central Processing Unit of CPU, een general-purpose chip die alle taken in een computer kan aansturen, zonder ergens bijzonder specifiek goed in te zijn.

In de jaren '90 ontstond een vraagstuk dat de ouderwetse CPU maar moeilijk in kon vullen - 3D games. De hoeveelheid wiskundige berekeningen ("floating point matrix-calculaties" voor intimi) die nodig is om 60 keer per seconde een paar miljoen pixels aan 3D wereld op je scherm te toveren is idioot groot, en vanouds was complex rekenwerk maar 1 van de 1000 taakjes die een CPU moet uitvoeren. Hij kon het wel, maar niet idioot goed of snel. Er werden daarom speciale chips ontwikkeld die andersom eigenlijk juist maar 1 ding konden, floating point rekenwerk stampen, maar dat dan wel idioot goed en snel. De Graphical Processing Unit of GPU was geboren.

Naarmate die GPU's beter werden ontstond vanuit met name de wetenschappelijke wereld ook de vraag of al die enorme rekenkracht niet ook voor andere dingen dan 3D games inzetbaar was. Modellen doorrekenen, hypotheses valideren en grootschalige analyse van meetdata zijn allemaal taken die neerkomen op floating point rekenwerk. In 2007 kwam CUDA uit, de eerste officiele manier om niet-grafisch rekenwerk op GPU's uit te voeren. Sindsdien heeft dit een enorme vlucht genomen en kopen universiteiten meer van de allerzwaarste Nvidia-kaarten dan verstokte gamers.

Neurale netwerken bestaan zelf al vele tientallen jaren. De basisconcepten erachter zijn redelijk simpel, het is spiekwerk bij het menselijk brein. Feitelijk is een neuraal netwerk een bijzonder specifiek soort programma dat een enorm floating point rekenmodel aanstuurt en maar 3 taken kan uitvoeren (heel kort door de bocht for sake of clarity):
  • Kijk, een appel
  • Kijk, geen appel
  • Is dit een appel?
Het 'trainen' van een neuraal netwerk komt dus neer op dat je hem een miljoen foto's geeft van appels, en 10 miljoen foto's van geen appels, en daarna kan hij met redelijk grote zekerheid vertellen of een nieuwe foto die je hem voert een appel is. Hoe meer trainingsdata, hoe beter de betrouwbaarheid - met 100 appels zal hij 50% van de tijd fout zitten, met 1000 10%, met 10.000 1%, met een miljoen 0.1%, enzovoorts.

Hoewel we het concept van neurale netwerken al een halve eeuw kennen is iedere poging door de jaren heen om ze grootschalig in te zetten gefaald, simpelweg omdat "we" de rekenkracht ontbeerden om er wat nuttigs mee te doen. Pas nu we de afgelopen 10 jaar via GPU's in clusters een theoretisch oneindige rekenkracht ertegenaan kunnen gooien worden de (vele) toepassingen ervan praktisch haalbaar.

Een neural netwerk kun je prima kopieren. Dus nadat je een NN hebt getraind kun je gewoon een dumpje pakken van wat er in het geheugen van je computer zit, dat naar iemand emailen, en dan kan hij daarmee ook appels herkennen. Yay. Dat neemt echter niet weg dat wat je dan opstuurt een complete black box is, net zoals de hersenen van een mens. We zien dat het werkt, maar kunnen er niet in peuteren om dingen te veranderen - je kunt er alleen nog meer trainingsdata in stoppen om de werking te beinvloeden.

Gaan we bovenstaand vertalen naar je Tesla dan zullen een hoop dingen op hun plek vallen. Tesla doet de training in supercomputers ("Dojo"), maakt een snapshot, en stuurt dat over-the-air op naar alle auto's. Trainen in de auto's zelf is volstrekt nutteloos, immers het toevoegen van 1 foto van een appel is een druppel op een gloeiende plaat op een netwerk dat al getraind is op miljoenen appels. Nee, het enige wat je kunt doen is proberen te detecteren dat de auto de appel niet goed zag, en er eventueel een foto van terugsturen, en daarmee de centrale trainingset aanpassen.

Voor de mensen onder ons met kinderen: iets afleren wat al is aangeleerd is meestal schier onmogelijk, en soms vraag je je af of je niet beter het hele kind weg kunt gooien en opnieuw moet beginnen. Tesla heeft die luxe wel, en traint in die supercomputers iedere keer hele neurale netwerken opnieuw, from scratch, met miljoenen of zelfs miljarden samples aan data. Die data die wordt, goeddeels handmatig ook nog, gelabeld, oftewel voorzien van informatie over wat het NN ervan moet leren. Kijk, een fiets. Kijk, dit is geen fiets voor jou want die zit achterop een auto. Kijk, een fiets met de mens ernaast ipv erop, dus dat is een voetganger. Melden honderdduizend auto's dat ze vaak moeite hebben met fietsen goed herkennen, en oh hoi hier heb je ook nog de bijbehorende 5 miljoen foto's, dan kun je daar wat mee, dat zijn nog eens significante getallen.

In de supercomputers spelen Karpathy en zijn team continu met de trainingsdata, en in welke verhouding ze foto's met welke labels ze erin moeten voeren. Die supercomputers maken daarmee duizenden keren per dag nieuwe neurale netwerken, die vervolgens automatisch worden getest op veel, heel veel testdata en -scenario's, of ze nog steeds alles goed genoeg herkennen, en liefst ook nog net wat beter dan gisteren. Afhankelijk van de resultaten gaan ze dan weer nieuwe NN's maken die daarop voortborduren, en daarvan krijgen de auto's eens in de zoveel tijd een snapshot.

Resumerend: al het echt zware stampwerk doet Tesla op z'n supercomputers in de VS, en daar gaan die uploads van je auto naar iedere rit heen. Die worden gefilterd door computers, waar daar door komt wordt gecontroleerd door mensen en gelabeld, en dat levert uiteindelijk weer een nieuw, from scratch getraind, NN op dat op jouw auto komt. Cirkeltje rond.

Waarom is HW3 dan zo belangrijk - omdat ook als je alleen vragen stelt aan een NN en niet traint er enorme hoeveelheden rekenwerk uitgevoerd moeten worden. 60 keer per seconde 8 HD videobeelden analyseren, tis niet niets. HW3 is dan ook een chip die voor merendeel bestaat uit GPU technologie om dat als een gek te kunnen doen. De rest van de chip bestaat uit een kleine CPU, wat RAM, wat logica om videobeelden te kunnen verwerken. Naast de NN's doet je auto niet zoveel speciaals, die CPU wordt amper gebruikt voor BMS en de feitelijke rijlogica e.d. Voor perspectief - de Space Shuttles hebben tot op de laatste dag gevlogen met processors equivalent aan een Commodore 64 (!!!) terwijl smartphones op dat moment al letterlijk een miljoen keer sneller waren. Maar voor simpelweg "als ik harder wil rijden dan m'n voorganger en er is links ruimte ga dan naar links" heb je al die gigahertzen niet nodig. HW3 is vooral het voortschrijdend inzicht over hoe enorm zwaar het rekenwerk achter NN's is om, op 60fps, op 8 camera's, met meer dan 99.9% zekerheid al die dingen in de 'real world' te kunnen herkennen. HW2.5 bleek daar uiteindelijk te traag voor, dus kwam er een nieuwe chip met 21x meer kracht op dat gebied. Een factor 21 is geen kattenpis.

Gaat HW4 op een dag komen? Sure. Maar we beginnen nu in de "long tail" te komen. HW2.5 was de rek uit, maar het werkt 99.9% van de tijd prima (vergis je niet - 1 phantom brake op een rit van een uur is 1 seconde fout op een uur met verder geen fouten, een foutmarge van 1/3600 oftewel 0.027%). HW3 heeft alle potentie om daar 99.999% van te kunnen maken. HW4 zal er vast 99.99999% van kunnen maken, maar op een gegeven moment ga je de "goed genoeg" brug over. En laten we eerlijk zijn, die brug staan we al op op dit moment met auto's die netto beter en veiliger rijden dan merendeel van de mensen op de weg. HW 4, 5 en 6 gaan enkel nog over hoe ver je door kunt lopen na de brug.
 
Minder leuk. Op de terugweg, voor ik Den Haag uit was geen rijvirtualisatie meer en ook geen automatische wipers. Alleen een snelheid in beeld, geen lijnen, geen stoplichten niets. Iemand dat ook gezien, meegemaakt? Heeft de hele weg geduurd.

Ook 1x gehad een aantal SW versies terug met mijn M3. Bij mij was ook de visualisatie weg, maar ging lane keeping/AP gewoon door (bleef mee sturen). Geen visualiatie waarschuwing op het scherm.
Heb AP er toch toen maar afgehaald. Denk dat ik een reset had gedaan om het op te lossen.
 
Gezien de overweldigende respons op mijn post, waarvoor dank, nog wat aanvullingen aan losse flodders:
  • De factor 21 meer rekenkracht is echt enorm. De snelheidstoename van computerchips is sinds ~1970 tot ~2010, deels kunstmatig, gestoeld geweest op een extrapolatie van Moore's Law, omtrent dat de dichtheid van transistors iedere 1.5 jaar met een factor 2 zou toenemen, wat zich redelijk lineair vertaalt in snelheid. 40 jaar lang is die wetmatigheid vastgehouden, totdat rond 2010 door het bereiken van natuurkundige limieten dat tempo verlaagde. Volgens die wetmatigheid kost het 7.5 jaar om iets 21 keer sneller te maken. HW2 is van eind 2016 en HW2.5 van eind 2017, dus 21x is echt heel veel in de 2 jaar tussen HW2.5 en HW3.
  • Die factor 21 is komende jaren meer dan genoeg. Die overkill is er "omdat het kan", omdat binnen het beschikbare energiebudget het weinig zou schelen om hem 'maar' 10 keer sneller te maken. Ze willen gewoon jaren veilig zitten, die retrofits nu kosten ze al genoeg.
  • HW4 zal dus echt geen enorme toenames qua snelheid opleveren, maar primair meer zuinigheid door kleiner procede en daarmee meer bereik voor de auto's. Ik heb in een ander topic wel eens becijferd dat met Sentry Mode alleen de computersystemen al 30km bereik kunnen kosten op een volle acculading. Dat halveren met kleinere zuinigere chips is alleen al interessant. Bovendien is het voor Tesla goedkoper om fysiek kleinere chips te maken (meer yield per wafer, voor de insiders).
  • De hardware is nu en in de voorziene toekomst niet de beperkende factor. Heel belangrijk om nog even aan te stippen. Er is geen 'magic bullet' om eromheen te komen dat de beperkingen nu liggen in de kwaliteit van het neurale netwerk. Daarom investeert Tesla in Dojo, daarom is fleet learning zo belangrijk, daarom is Karpathy een held in z'n vakgebied. Omdat de kwaliteit van het NN van Tesla miljarden aan waarde vertegenwoordigt, en HW3 de komende jaren krachtig genoeg is voor wat ze ermee gaan bedenken.
  • Regressies zijn normaal, voor wie die implicatie had gemist. Zoals ik al zei is een NN zelf een black box waar je niet in kunt peuteren. Je moet een nieuw NN zien te trainen dat geen last heeft van eerdere beperkingen of fouten. Dat kan keihard betekenen dat je, door de trainingsset aan te passen om fietsers beter te herkennen, ineens minder goed bepaalde voetgangers kunt herkennen, bijvoorbeeld omdat het NN gaat twijfelen tussen de nieuwe fietsers en de oude voetgangers. Als dat nog steeds door de tests komt gaat die release alsnog live omdat hij netto beter is dan voorheen. En daarna gaan ze verder schaven om te zorgen dat beide beter herkend worden. Maar regressies zijn, binnen normen, gewoon normaal en acceptabel binnen de progressie van neurale netwerken.
Oh nog eentje trouwens die ik was vergeten:
  • De huidige Tesla-configuraties werken met 8 camera's die 1280x720 aanleveren. Door trivialisering van technologie zou het me niet verbazen als over 2~3 jaar de camera's op 1920x1080 Full HD gaan standaardiseren. Dat is 2.25 keer zoveel beelddata. Daar gaat HW4 op een gegeven moment in nodig zijn om dat nog real-time te kunnen verwerken, ook met de grotere en veel complexere NN's die er tzt zijn. De resolutie zal overigens geen enorme impact hebben op de kwaliteit van AP, hoogstens bij wat edge cases marginaal eerder kunnen reageren/acteren.
 
Last edited:
Gezien de overweldigende respons op mijn post, waarvoor dank, nog wat aanvullingen aan losse flodders:
  • De factor 21 meer rekenkracht is echt enorm. De snelheidstoename van computerchips is sinds ~1970 tot ~2010, deels kunstmatig, gestoeld geweest op een extrapolatie van Moore's Law, omtrent dat de dichtheid van transistors iedere 1.5 jaar met een factor 2 zou toenemen, wat zich redelijk lineair vertaalt in snelheid. 40 jaar lang is die wetmatigheid vastgehouden, totdat rond 2010 door het bereiken van natuurkundige limieten dat tempo verlaagde. Volgens die wetmatigheid kost het 7.5 jaar om iets 21 keer sneller te maken. HW2 is van eind 2016 en HW2.5 van eind 2017, dus 21x is echt heel veel in de 2 jaar tussen HW2.5 en HW3.
  • Die factor 21 is komende jaren meer dan genoeg. Die overkill is er "omdat het kan", omdat binnen het beschikbare energiebudget het weinig zou schelen om hem 'maar' 10 keer sneller te maken. Ze willen gewoon jaren veilig zitten, die retrofits nu kosten ze al genoeg.
  • HW4 zal dus echt geen enorme toenames qua snelheid opleveren, maar primair meer zuinigheid door kleiner procede en daarmee meer bereik voor de auto's. Ik heb in een ander topic wel eens becijferd dat met Sentry Mode alleen de computersystemen al 30km bereik kunnen kosten op een volle acculading. Dat halveren met kleinere zuinigere chips is alleen al interessant. Bovendien is het voor Tesla goedkoper om fysiek kleinere chips te maken (meer yield per wafer, voor de insiders).
  • De hardware is nu en in de voorziene toekomst niet de beperkende factor. Heel belangrijk om nog even aan te stippen. Er is geen 'magic bullet' om eromheen te komen dat de beperkingen nu liggen in de kwaliteit van het neurale netwerk. Daarom investeert Tesla in Dojo, daarom is fleet learning zo belangrijk, daarom is Karpathy een held in z'n vakgebied. Omdat de kwaliteit van het NN van Tesla miljarden aan waarde vertegenwoordigt, en HW3 de komende jaren krachtig genoeg is voor wat ze ermee gaan bedenken.
  • Regressies zijn normaal, voor wie die implicatie had gemist. Zoals ik al zei is een NN zelf een black box waar je niet in kunt peuteren. Je moet een nieuw NN zien te trainen dat geen last heeft van eerdere beperkingen of fouten. Dat kan keihard betekenen dat je, door de trainingsset aan te passen om fietsers beter te herkennen, ineens minder goed bepaalde voetgangers kunt herkennen, bijvoorbeeld omdat het NN gaat twijfelen tussen de nieuwe fietsers en de oude voetgangers. Als dat nog steeds door de tests komt gaat die release alsnog live omdat hij netto beter is dan voorheen. En daarna gaan ze verder schaven om te zorgen dat beide beter herkend worden. Maar regressies zijn, binnen normen, gewoon normaal en acceptabel binnen de progressie van neurale netwerken.
Oh nog eentje trouwens die ik was vergeten:
  • De huidige Tesla-configuraties werken met 8 camera's die 1280x720 aanleveren. Door trivialisering van technologie zou het me niet verbazen als over 2~3 jaar de camera's op 1920x1080 Full HD gaan standaardiseren. Dat is 2.25 keer zoveel beelddata. Daar gaat HW4 op een gegeven moment in nodig zijn om dat nog real-time te kunnen verwerken, ook met de grotere en veel complexere NN's die er tzt zijn. De resolutie zal overigens geen enorme impact hebben op de kwaliteit van AP, hoogstens bij wat edge cases marginaal eerder kunnen reageren/acteren.
Geweldige uitleg. Bedankt. Mag ik toch een paar dingen aanvullen....

1. Los van het goed getrainde NN is er ook heel wat normale algoritmische software nodig om op basis van signalen uit het NN beslissingen te nemen. Daar heb je niet veel power voor nodig maar daar kunnen wel veel fouten in gemaakt worden. Die gewone software moet met de wetgeving in ieder land om kunnen gaan. Programmeurs maken veel fouten.

2. Neural Nets lijken een beetje op hersenen maar zijn vooral ‘domme’ patroonherkenners die geen verstand hebben van wat ze herkennen. Het mooiste voorbeeld in een YouTube video: pop ter grootte van een kind werd door het Tesla NN herkent als een volwassen persoon die tweemaal zover weg stond. Er werd te laat voor het kind geremd.
Je kunt maar beter bijna onbeperkte NN power hebben om alles straks apart te kunnen herkennen.

3. Musk denkt dat FSD opgelost is met camera’s, radar, NN en gewone software. Ik denk dat we 25 jaar lang niet in de buurt van de 99% gaan komen. Als mens voegen wij de algemene kennis toe om veilig te kunnen rijden. We zullen zien.
 
Ik heb dat in de zomer ook gehad. Soms lag het aan een vlieg, meestal aan een koelbox die nog op 12V zat te draaien.

In beide gevallen dus het volumetrisch alarm dat een beweging in de auto detecteerde.
Dan maar even kijken of ik toevallig de koelbox nog in mijn auto heb liggen. :)

Zoals gezegd was het niet een vlieg ofzo - stond er 10 meter vandaan en heb steeds gelijk gekeken. Daarom ook de vraag of er meer mensen last van hadden in deze versie.
 
Als je op een weg rijdt met 2 rijstroken in jouw rijrichting, kan je 2 dingen zien als je op autopilot rijdt

Zeer verhelderend! Bedankt! Ik ga de komende tijd wat vaker naar een Lidl met laadpaal, om de 80km/u wegen te testen. De 70km/u-wegen in Amsterdam zijn allemaal binnen-de-lijnen-zonder-inhalen.

Als Navigate on Autopilot zelf niet aangeeft om van rijstrook te wisselen om in te halen, kan je altijd zelf de richtingsaanwijzer activeren en vraag je zelf om een auto lane change te doen. Je moet niet slaafs de opdrachten van Navigate on Autopilot volgen.

Ik gebruik waarschijnlijk de verkeerde termen - die komen voor mij niet meer overeen met wat ik ervaar en gebruik ik gaandeweg niet meer.

Maar van het eerste plaatje begrijp ik dat als er 2 doorgetrokken strepen zijn, dat ik dan alleen tussen de strepen gehouden wordt en alleen in kan halen door hoehetdanookheet uit te zetten.

Ik vraag me af hoe ik binnen de bebouwde kom het verschil aan zou moeten geven tussen richting aangeven (zoals vakken voor een stoplicht) en van baan wisselen.
 
Maar van het eerste plaatje begrijp ik dat als er 2 doorgetrokken strepen zijn, dat ik dan alleen tussen de strepen gehouden wordt en alleen in kan halen door hoehetdanookheet uit te zetten.
Met 2 doorgetrokken strepen op je display moet je inderdaad zelf richting aangeven en zelf sturen en valt AP uit wanneer je doorheen de tegendruk stuurt.

Ik vraag me af hoe ik binnen de bebouwde kom het verschil aan zou moeten geven tussen richting aangeven (zoals vakken voor een stoplicht) en van baan wisselen.
Ik denk/vermoed dat je momenteel binnen bebouwde kom geen gebruik kan maken van Auto Lane Change, je dus twee doorgetrokken strepen ziet en zelf moet sturen om af te slaan.

Met een meervaksbaan in de bebouwde kom en een voorsorteerstrook zou het kunnen zijn dat Auto Lane Change wel beschikbaar wordt om de voorsorteerstrook te nemen.
 
Met 2 doorgetrokken strepen op je display moet je inderdaad zelf richting aangeven en zelf sturen en valt AP uit wanneer je doorheen de tegendruk stuurt.
Wacht. Je zegt dat als ik iets minder hard duw, dat ie wel een baanwissel kan doen zonder dat de AP uitvalt?

Ik denk/vermoed dat je momenteel binnen bebouwde kom geen gebruik kan maken van Auto Lane Change, je dus twee doorgetrokken strepen ziet en zelf moet sturen om af te slaan.

Met een meervaksbaan in de bebouwde kom en een voorsorteerstrook zou het kunnen zijn dat Auto Lane Change wel beschikbaar wordt om de voorsorteerstrook te nemen.

Ik bedoel dat in de verre toekomst als alles wel mag, ik niet weet hoe ik aan zou moeten geven wat ik wil. Baanwissel met zacht richtingaanwijzer aantikken en richtingaanwijzer aan met doordrukken? Dus dat wordt straks of helemaal FSD of zoals het nu is
 
@curry684 wat is jouw take op dat 4D model? Naar ik begrijp is het analyseren van de bewegingsrichting van een object?

Met Braincreators proberen we het model van Tesla te benaderen en het is grappig om te zien hoe dicht dat bij elkaar ligt ondanks dat de schaal natuurlijk totaal anders is. Verkeersborden herkennen voor de wegbeheerders, en melden welke scheef staan bijv. Of alle brandmelders in de hallen van Schiphol. Wordt getrained op custom Power9 computers van IBM, en uiteindelijk het NN in de camera’s geladen.
 
Geweldige uitleg. Bedankt. Mag ik toch een paar dingen aanvullen....

1. Los van het goed getrainde NN is er ook heel wat normale algoritmische software nodig om op basis van signalen uit het NN beslissingen te nemen. Daar heb je niet veel power voor nodig maar daar kunnen wel veel fouten in gemaakt worden. Die gewone software moet met de wetgeving in ieder land om kunnen gaan. Programmeurs maken veel fouten.
Correct, alle echte Autopilot logica is, voor zover op dit moment bekend, procedureel (if-this-then-that) alhoewel Elon meermaals gehint heeft dat "NN is absorbing more and more of the problem" en ik daar ook zeker wel merits in zie dat het mogelijk moet zijn om bepaalde beslissingsbomen daarlangs te laten lopen, om zo tot "menselijker en anticiperender gedrag" te komen.

Vergis je overigens ook niet in dat de hoeveelheid "fouten" aan deze kant niet enorm groot is, dat voorkomen de test suites en anders de alpha testers wel. Wat vaak op fora als dit als "fout", "vreemd gedrag" of "regressie" wordt benoemd komt in feite neer op dat Autopilot anders rijdt dan zij. Op duizend mensen zullen er geen 2 exact hetzelfde rijden, en allemaal hebben ze commentaar op elkaar's rijstijl terwijl ze zichzelf perfect vinden rijden. AP is gewoon rijstijl 1001 in dat rijtje.
2. Neural Nets lijken een beetje op hersenen maar zijn vooral ‘domme’ patroonherkenners die geen verstand hebben van wat ze herkennen. Het mooiste voorbeeld in een YouTube video: pop ter grootte van een kind werd door het Tesla NN herkent als een volwassen persoon die tweemaal zover weg stond. Er werd te laat voor het kind geremd.
Mensen maken deze fouten ook aan de lopende band, tot op het punt dat het bewust in wordt gezet. In de Lord of the Rings films worden op veel plekken bewust de hobbits parallel verder weg gezet om de illusie te vergroten dat ze amper 1.2m groot zijn. Zijn miljoenen mensen ingetrapt, omdat het net als een Tesla video een plat scherm is dat we niet met 2 ogen voor diepte kunnen corrigeren.

Dit is een van de tekortkomingen die Tesla wil oplossen met de "4D autopilot" - als je de beschikking hebt over meerdere beelden en de displacement door de tijd in kaart houdt wordt je dieptebepaling aanmerkelijk beter.

Maar again, er worden elk jaar kinderen doodgereden door mensen die exact dezelfde fout maken als in dat filmpje.
3. Musk denkt dat FSD opgelost is met camera’s, radar, NN en gewone software. Ik denk dat we 25 jaar lang niet in de buurt van de 99% gaan komen. Als mens voegen wij de algemene kennis toe om veilig te kunnen rijden. We zullen zien.
25 jaar is een eeuwigheid. In 1995 waren er nog geen miljoen mobiele telefoons op de wereld, en wogen ze een pond. In 1995 was het "World Wide Web" nog een leeg experiment, en had je vrijwel alleen internet op universiteiten. In 1995 waren televisies nog dieper dan dat ze breed waren, en was Doom 2 state-of-the-art.

Rond 1995 ging men er nog van uit dat het 40 jaar zou duren om het menselijk genoom compleet in kaart te brengen. In 2003 was men al klaar.

En mensen rijden niet veilig. Mensen rijden extreem stom en slecht. We hebben allerhande achterlijke verkeersregels bedacht met afstand houden, veel te brede wegen e.d. om te corrigeren voor onze stroperig trage reactiesnelheid, ons gebrek aan concentratie, ons onvermogen om 360 graden alles in de gaten te houden, onze vermoeidheidsproblemen, de schreeuwende koter op de achterbank en alles. Computers hebben al die beperkingen niet, ze missen alleen nog bepaalde stukken 'gezond verstand' die 'wij' wel hebben. Met genoeg data is dat echter prima aan te leren.

Technologie gaat snel, heel snel, en vergis je nooit in de macht van data. Een miljoen Tesla's uploaden dagelijks 1 tot 5MB aan data. Dat is 5TB per dag. 2 petabyte per jaar. Je gaat verbaast zijn over wat die auto over 2~3 jaar allemaal kan, voor zover het van reguleringen ook mag.
 
Gezien de overweldigende respons op mijn post, waarvoor dank, nog wat aanvullingen aan losse flodders
@curry684, een mooie uitleg! Een idee om deze uitleg ook in een nieuw onderwerp te plaatsen? Over een paar weken hebben we een nieuwe software versie en zal dit onderwerp niet meer actueel zijn. Zou zonden zijn van deze uitgebreide uitleg!