Welcome to Tesla Motors Club
Discuss Tesla's Model S, Model 3, Model X, Model Y, Cybertruck, Roadster and More.
Register

Software 10

This site may earn commission on affiliate links.
Ik dacht eerst dat ik gek was, maar na drie weken op dezelfde plek gereden te hebben weet ik het 100% zeker, mijn Tesla doet bij ring Groningen afslag richting Hoogezand zelf zijn richtingaanwijzer aan voor invoegen tijdens autopilot zonder NoA. Daadwerkelijk invoegen doet hij natuurlijk niet aangezien je zelfs onder NoA voor invoegen een bevestiging moet geven. Toch vind ik dit erg vreemd. Dit zou niet moeten gebeuren toch als NoA uit staat?

Is heel irritant wat mij betreft. Hij doet het ook van a22 de a9 op. Maar daar hoef je tijdens de spits niet in te voegen want invoegstrook wordt dan spitsstrook. Heel onduidelijk voor medeweggebruikers.
 
Is heel irritant wat mij betreft. Hij doet het ook van a22 de a9 op. Maar daar hoef je tijdens de spits niet in te voegen want invoegstrook wordt dan spitsstrook. Heel onduidelijk voor medeweggebruikers.
Ik heb het ook als ik bij Nieuw-Vennep de A4 oprij. Daar heb je een lange invoegstrook die eerst nog door een vangrail + middenberm gescheiden is van de hoofdrijbaan. Op dat stuk begint hij steeds uit zichzelf naar links te knipperen. Ik zet het uit - hij weer aan - ik weer uit - hij weer aan - ik wee..... enz. Alleen daar. Ik heb daar altijd NoA aan, maar zal eens proberen zonder NoA.

Naast de phantom drain en phantom brakes hebben we nu dus ook de phantom blinker.
 
En de gefinetunede branches uiteindelijk weer mergen toch, lijkt me? Ik vraag me af waarom we af en toe weer enkele regressies zien...
De 'regressies' zijn geen code-level regressies. Op dit moment is "FSD" in codetermen "een hele grote bak met ifjes en switches". Je moet het echt zien als een enorme grote bak code die dingen roept als:
  • Als ik rechts half zoveel ruimte in de rijbaan heb dan links, stuur 2 graden naar links
  • Als er rechts een vrachtwagen komt die minder dan 10cm van de middenstreep zit, stuur 3 graden naar links
  • Als er binnen mijn remafstand voor me iemand in mijn rijstrook zit die meer dan 10km/u langzamer rijdt, laat gas 20% los
  • Etc. etc. etc. herhaal 15.684 van dit soort kleine regeltjes
Het resultaat van zo'n groot samenspel is een redelijk overtuigende imitatie van een menselijke bestuurder. Er wordt echter wel continu aan de parameters gesleuteld om in te springen op real-world feedback, de 10cm grens voor vrachtwagens wordt eens een keer op 12cm gesteld, de formule voor veilige remafstand wordt een keer verbeterd, er wordt een keer een regeltje toegevoegd over het belang dat wordt gehecht aan de afstand van bomen naast de weg. Dat is allemaal ongoing finetuning, maar dat soort kleine wijzigingen "rimpelen" wel door het hele systeem heen, in dat een finetuning in regel 1259 best eens tot gevolg kan hebben dat regel 6812 in bepaalde situaties wat te snel in actie komt. Voor eindgebruikers lijkt dat een regressie, voor de programmeurs is het gewoon een nieuwe situatie die afgesteld moet worden.

Sowieso is de meest gehoorde 'regressieklacht' inherent bullshit, dat gaat namelijk over de phantom brakes. Laten we het voor eens en altijd zeggen - die ga je altijd blijven houden en hebben geen hol van doen met regressies. Een autonoom rijsysteem op een tank van 2 ton die 130km/u rijdt mag nooit of te nimmer een serieuze fout maken. Dan gaan mensen dood. Veel mensen. Minder cruciale regelsystemen worden veel losser ingericht, en nemen daarbij risico's op dat een server soms te ver overbelast is voor een cluster wordt vergroot, of koelen je koelkast een keer te ver waardoor hij een paar minuten 10W teveel energie gebruikt, of sturen de lift een keer naar de verkeerde verdieping waardoor mensen 30 seconden langer moeten wachten. Dat zijn afwegingen om tot een balans te komen in een systeem waar de pro's en cons worden geschat op level van impact. Dat energieverlies van je koelkast is een prima offer als ie andersom vaker dubbel zoveel bespaart erdoor.

Je Tesla heeft die luxe niet. Alle algoritmes, regelsystemen en afwegingen worden ingericht met 1 gulden regel die nooit overtreden mag worden - de auto mag niks en niemand raken. Dus bij twijfel over wat ie ziet => remmen. Is dat nou een auto of een reflectie? => remmen. Ik weet 98% zeker dat die auto niet in mijn rijbaan gaat komen, maar dat betekent dus 2% kans op een botsing => remmen.

Dus, wees blij dat je auto phantom brakes maakt. Blijft ie doen tot alles auto's op de weg met mesh networking met elkaar praten. Zolang er nog minimaal 1 auto in Nederland rijdt die dat niet kan blijft je auto sporadisch phantom braken. Daarmee houdt ie jouw dure auto heel, en jou, en je vrouw en kinderen. En die van anderen. Mensen maken namelijk te weinig phantom brakes. Daar zijn 2018 alleen al in Nederland 678 mensen aan overleden.
 
Sowieso is de meest gehoorde 'regressieklacht' inherent bullshit, dat gaat namelijk over de phantom brakes. Laten we het voor eens en altijd zeggen - die ga je altijd blijven houden en hebben geen hol van doen met regressies.
Ik ben het eens met je post hoor, maar de korrel zout die wel bij je betoog moet is dat een (onbekend) deel van de phantom brakes veroorzaakt wordt door de onzekerheid in het wereldmodel die wèl het gevolg is van inconsistente interpretatie van sensorinputs, nodeloos conflicterende / onvoldoende hierarchische beslisregels, vertraging in besluitvorming door niet geoptimaliseerde code etc. Een (onbekend) ander deel van die onzekerheid wordt veroorzaakt door de inherente onvoorspelbaarheid van de buitenwereld, en weer een ander deel door de imperfecties in het meten van die buitenwereld door de keuzes die zijn gemaakt in de sensoren etc.

Met name bij de eerste categorie, maar ook in het omgaan met de tweede en derde, is natuurlijk alle ruimte voor regressies die tot een verergering van de frequentie of intensiteit van de ingrepen kunnen leiden. Hoewel je PB's altijd zult hebben zolang je voorspellend wereldmodel imperfect is, kan de gebruiker wel degelijk grote verschillen merken van release tot release. M.i. geen inherente bullshit dus.
 
@curry 684: helder verhaal en bedankt voor je waardevolle bijdrage. Mijn vrouw heeft dezelfde redenering: 'wat fijn dat de Tesla zo voorzichtig rijdt, liever 1 keer voor niets remmen, dan 1 keer niet remmen waar het wel had gemoeten.'
Ik merk dat de phantom brakes eigenlijk sinds een paar weken niet meer voorkomen. Wat je nu merkt is dat Tesla bezig is om het schommelen tussen de lijnen onder de knie te krijgen.
 
  • Like
Reactions: curry684
Ik ben het eens met je post hoor, maar de korrel zout die wel bij je betoog moet is dat een (onbekend) deel van de phantom brakes veroorzaakt wordt door de onzekerheid in het wereldmodel die wèl het gevolg is van inconsistente interpretatie van sensorinputs, nodeloos conflicterende / onvoldoende hierarchische beslisregels, vertraging in besluitvorming door niet geoptimaliseerde code etc. Een (onbekend) ander deel van die onzekerheid wordt veroorzaakt door de inherente onvoorspelbaarheid van de buitenwereld, en weer een ander deel door de imperfecties in het meten van die buitenwereld door de keuzes die zijn gemaakt in de sensoren etc.

Door wat je hier zegt krijg ik het idee dat jij inzicht hebt in de code/parameters die gebruikt worden. Tof! Kan je dat verder toelichten?

Ander is je gehele post een grote aanname die je niet kan onderbouwen...
 
Door wat je hier zegt krijg ik het idee dat jij inzicht hebt in de code/parameters die gebruikt worden. Tof! Kan je dat verder toelichten?
Niet in de Tesla code. Wel in het bouwen en gebruiken van een (stochastisch, voorspellend, evt. gedistribueerd) wereldmodel. Elk stukje geavanceerde robotica dat in de echte wereld moet opereren loop je tegen dezelfde beperkingen aan. Tesla is verre van uniek daarin.
Ander is je gehele post een grote aanname die je niet kan onderbouwen...
Nee hoor. Tesla doet leuke dingen maar is gewoon gebonden aan dezelfde constraints als ieder ander. Iedereen loopt aan tegen dezelfde bronnen van onzekerheid in dit soort wereldmodellen. Een deel daarvan ligt binnen eigen bereik om ze op te lossen, een deel daarvan zul je mee om moeten gaan. In beide gevallen is er alle ruimte voor het maken van fouten, en dus ook voor regressies.
 
Door wat je hier zegt krijg ik het idee dat jij inzicht hebt in de code/parameters die gebruikt worden. Tof! Kan je dat verder toelichten?

Ander is je gehele post een grote aanname die je niet kan onderbouwen...

Het verhaal van @Larss is mijn inzien erg goed verwoord. Ik kan me hierin erg in vinden.

Het is een logisch geheel, ja aanname, als je creatief denker bent kan je een voorstelling maken hoe het systeem werkt. Ik zou het anders verwoorden(minder mooi) maar begrijp wat larss hier.

Belangrijkste van 'het systeem', zelf beslissing maken adhv de aanwezige input. Het is absoluut niet een voor-geprogrammeerd robot.
 
Niet in de Tesla code. Wel in het bouwen en gebruiken van een (stochastisch, voorspellend, evt. gedistribueerd) wereldmodel. Elk stukje geavanceerde robotica dat in de echte wereld moet opereren loop je tegen dezelfde beperkingen aan. Tesla is verre van uniek daarin.

Nee hoor. Tesla doet leuke dingen maar is gewoon gebonden aan dezelfde constraints als ieder ander. Iedereen loopt aan tegen dezelfde bronnen van onzekerheid in dit soort wereldmodellen. Een deel daarvan ligt binnen eigen bereik om ze op te lossen, een deel daarvan zul je mee om moeten gaan. In beide gevallen is er alle ruimte voor het maken van fouten, en dus ook voor regressies.
Eens, maar je zegt ook:
de onzekerheid in het wereldmodel die wèl het gevolg is van inconsistente interpretatie van sensorinputs, nodeloos conflicterende / onvoldoende hierarchische beslisregels, vertraging in besluitvorming door niet geoptimaliseerde code etc.

Misschien dat jij hier tegenaan loopt (no offense!), maar het geen automatisme dat Tesla dat dan ook doet. Als leek lees ik, als je zegt "inconsistente interpretatie van sensorinputs", dat als sensor 1 output A geeft je soms kiest voor de ene interpretatie en soms voor een andere. Dat kan je niet onderbouwen zonder inzicht te hebben. Wel lijkt het me dat een combinatie van inputs van sensoren tot bepaalde reacties van leiden (bijv. een phantom brake).

Maar nogmaals, ik denk dat jij beter weet waar je over praat dan ik, gezien jouw laatste post (en je woonplaats? :)).
 
Eens, maar je zegt ook:


Misschien dat jij hier tegenaan loopt (no offense!), maar het geen automatisme dat Tesla dat dan ook doet. Als leek lees ik, als je zegt "inconsistente interpretatie van sensorinputs", dat als sensor 1 output A geeft je soms kiest voor de ene interpretatie en soms voor een andere. Dat kan je niet onderbouwen zonder inzicht te hebben. Wel lijkt het me dat een combinatie van inputs van sensoren tot bepaalde reacties van leiden (bijv. een phantom brake).

Maar nogmaals, ik denk dat jij beter weet waar je over praat dan ik, gezien jouw laatste post (en je woonplaats? :)).
;) goed gezien, was dus te laat met verwijderen haha

Maar goed , inconsistente (interpretatie van) sensorinputs is een gegeven in een systeem als een Tesla, en dat is ook wat curry zegt. Denk aan de camerasystemen en de radar die het lang niet altijd eens zullen zijn over wat er voor de auto gebeurt. Op het moment dat je daardoor niet meer kunt uitsluiten dat er een auto midden op de weg stilstaat is het waarschijnlijk een goed idee om te remmen of uit te wijken.
Uiteindelijk wil je de balans opschuiven richting zo veilig mogelijk, waardoor je de aanwezige onzekerheid gaat terugzien in op het oog overdreven voorzichtigheid. Maak je de inputs beter (in het uiterste geval van communicerende weggebruikers nagenoeg perfect, op zaken als meetfouten en routing issues na), de verwerking van die inputs netter, de beslissingen op basis daarvan meer solide dan zul je minder en minder nerveus weggedrag zien, en hopelijk zelfs de veiligheid (hoe je die dan ook wilt meten) nog met een paar 9's achter de komma verbeteren.
 
  • Like
Reactions: Bart44