Welcome to Tesla Motors Club
Discuss Tesla's Model S, Model 3, Model X, Model Y, Cybertruck, Roadster and More.
Register

Software 2024.14.*

This site may earn commission on affiliate links.
Probleem is niet het display. Probleem is de onnodige animatie van de auto’s/weg om je heen.

1. Het klopt 9/10 niet, dus je kunt er niet van op aan.
2. Het leid alleen maar af die bewegende/verspringende dingen op je scherm.
3. Het zou Tesla sieren om in ieder geval een mogelijkheid te geven om het uit te zetten.
4. Geen één auto is 100% perfect.
5. Lekker makkelijk om te zeggen dat ik dan maar een andere auto moet uitkiezen.
Als je bewoording gebruikt als “zooi”, “klopt geen kant van” en “geen zak aan” dan klinkt dat in mijn oren wel heel negatief en lijkt het alsof je niet tevreden bent over de auto. Vandaar dat ik met een knipoog aangeef dat je dan beter een ander merk kunt gaan rijden…..
 
Yep, ik zou liever in plaats van die animaties een debug console willen waar de auto uitlegt waarom ie net gedaan heeft wat ie heeft gedaan en waarom in hemelsnaam ('nou ik vond die fietser wel erg eng dus ik heb ik geremd.' 'Mijn kaartdata zegt dat het hier 30kmh is en toch laat ik 80 zien op het scherm' etc.
Los van of dit wenselijk is, is de kans groot dat dit niet mogelijk is. De auto kán je namelijk helemaal niet vertellen wáárom hij een beslissing (fout of goed) maakt.
Machine learning algoritmes en neurale netwerken zoals Tesla die gebruikt werken niet met logische regels en "if then else" constructies zoals "normale" software. Deze algoritmes worden getraind met grote hoeveelheden data waarvan de gewenste uitkomst bekend is. Zo "leert" het model de correlatie tussen bepaalde data en een bepaalde situatie/uitkomst. Dat getrainde algoritme wordt vervolgens toegepast op nieuwe situaties.
Het is een soort van black box, er gaat data in en komt een conclusie uit, maar wat er precies in die black box gebeurt, kunnen zelfs de makers je meestal niet vertellen. Net zoals dat AI beeldanalysesoftware je niet kan vertellen op basis van wat het heeft geïdentificeerd dat er een persoon/hond/kat/auto op een foto staat en het ook heel moeilijk te achterhalen is wát er fout gaat als het niet klopt.

Wat de makers doen als het misgaat, is zelf de data analyseren en dan waar nodig het model opnieuw trainen met "betere" data. Je ziet ook dat Tesla dat in de US doet met FSD op plekken waar het vaak misgaat. Maar je kunt niet, zoals in klassieke programmatuur, naar het debug log kijken om te zien op welke coderegel hij de fout in gaat en die dan gericht corrigeren.

Als non-EAP en non-FSD rijder zou ik liever de kaart zo groot mogelijk hebben.
 
Los van of dit wenselijk is, is de kans groot dat dit niet mogelijk is. De auto kán je namelijk helemaal niet vertellen wáárom hij een beslissing (fout of goed) maakt.
Machine learning algoritmes en neurale netwerken zoals Tesla die gebruikt werken niet met logische regels en "if then else" constructies zoals "normale" software. Deze algoritmes worden getraind met grote hoeveelheden data waarvan de gewenste uitkomst bekend is. Zo "leert" het model de correlatie tussen bepaalde data en een bepaalde situatie/uitkomst. Dat getrainde algoritme wordt vervolgens toegepast op nieuwe situaties.
Het is een soort van black box, er gaat data in en komt een conclusie uit, maar wat er precies in die black box gebeurt, kunnen zelfs de makers je meestal niet vertellen. Net zoals dat AI beeldanalysesoftware je niet kan vertellen op basis van wat het heeft geïdentificeerd dat er een persoon/hond/kat/auto op een foto staat en het ook heel moeilijk te achterhalen is wát er fout gaat als het niet klopt.

Wat de makers doen als het misgaat, is zelf de data analyseren en dan waar nodig het model opnieuw trainen met "betere" data. Je ziet ook dat Tesla dat in de US doet met FSD op plekken waar het vaak misgaat. Maar je kunt niet, zoals in klassieke programmatuur, naar het debug log kijken om te zien op welke coderegel hij de fout in gaat en die dan gericht corrigeren.

Als non-EAP en non-FSD rijder zou ik liever de kaart zo groot mogelijk hebben.
Yep, I know (ouderwetse low-level C krasser met niet-beroepsmatige interesse in ML). Hier valt nog iets te innoveren :) (en dan niet alleen Tesla specifiek maar ML in het algemeen)
 
Machine learning algoritmes en neurale netwerken zoals Tesla die gebruikt werken niet met logische regels en "if then else" constructies zoals "normale" software.
Inderdaad. En even los van het feit dat we de AI versie hier nog niet hebben, als die actief is, zal de enige oplossing om het algoritme te wijzigen, het voeden zijn met duizend filmpjes die het iets anders leren dan wat het tot dan kende.
Kort door de bocht voorbeeld is de dwarsende fiets. AI leerde eerst dat als een fiets de weg dwarst, hij vol in de remmen moest. Gevolg was dat als je op de autoweg achter een wagen met fietsdrager kwam, dat de wagen vol in de remmen ging. Dit is gecorrigeerd met filmpjes van fietsen op fietsdragers die aan dezelfde snelheid vooruit gaan en de instructie dat er dan niet moet geremd worden.
 
.. in nieuwere versies van FSD in de VS. Aan deze kant van de oceaan hebben we nog de "ouderwetse" if/then/else code uit 2018.

(Toch?)
Klopt, maar volgens mij is ook de bestaande AP stack al voor een deel gebaseerd op machine learning, maar ik kan het mis hebben.
Hoe dan ook, zelfs als het in normale code zou staan, betwijfel ik of je als user veel zou hebben aan een debug log, aangezien het onwaarschijnlijk is dat individuele keuzes makkelijk inzichtelijk te maken zijn in zo'n complex geheel.
 
Release notes van 2024.14.3 zijn inmiddels uit:


Helaas nog steeds geen enkele install te zien op de trackers. Vreemd, meestal komt de uitrol een stuk sneller op gang.
 
  • Like
Reactions: Blackbelt