Welcome to Tesla Motors Club
Discuss Tesla's Model S, Model 3, Model X, Model Y, Cybertruck, Roadster and More.
Register

Vervallen van ultrasonic sensors

This site may earn commission on affiliate links.
Ik denk wel dat het klopt. Zie officiële statement:

 
  • Informative
Reactions: Hbrink and Niek
Bizar bericht als dit klopt: ultrasone sensors worden vanaf deze maand niet meer geïnstalleerd - 100% vision only:

Waarom zou dat bizar zijn? Als je bedenkt dat Tesla over wil naar vision only is dit een logische stap.
Wat er gaat gebeuren is dat de kwaliteit in eerste instantie achtruit gaat en na verloop van tijd zal er weer een verbetering in de functionaliteit gaan optreden.
 
Vreemd hoor, vandaag de dag een auto kopen die geen biepjes geeft bij het naderen van objecten tijdens het parkeren 🤦
Ook vreemd om evenveel voor FSD te betalen, terwijl autopark en summon er niet op staat. Beiden werkten nu ook niet, maar dat weten veel kopers niet.
Bon, je koopt vandaag dus een auto met nog meer beloftes dat het allemaal wel zal werken binnen een tijdje.
 
  • Like
Reactions: Superendo
Ik zag gisteren al een YouTube over het volgende: Tesla Vision Update: Replacing Ultrasonic Sensors with Tesla Vision

Wat is dat voor lompe beslissing? Het probleem is natuurlijk dat die sensors niet aan te slepen zijn en daardoor duur dus laten we ze maar vervallen!

Serieus, de zoveelste domper! Dus als je straks gaat parkeren moet je dat via het "low precision vision" systeem doen zeker. Wanneer komt de piep? Waarschijnlijk op een lineaal lengte al 🙃. Lekker hier in Europa waar je al

Tesla is ook ZOOOO koppig door geen camera in de voorbumper te plaatsen. Praktisch elke auto heeft dat tegenwoordig en is echt ideaal voor parkeren. Als die voor en achter zou zitten dan heb je idd geen ultrasonic sensors nodig maar gezien Tesla die niet heeft en vast niet gaan plaatsen zal het een achteruitgang zijn.

Een tijd terug werk Autopark (nu park assist?) al aangepast met Vision ondersteuning waar het voorheen met enkel Ultrasonic Sensors.


Issues sinds autopark with vision:

- Haaks parkeren enkel nog bij zeer duidelijke parkeervakken. Voorheen kon je gewoon de auto tussen 2 auto's parkeren waar dan ook. Grasveldjes of parkeerplaatsen zonder markeringen.
- Gemiddeld gezien vaker slechtere parkeeracties dan enkel met USS
- Meer falende parkeeracties in het donker of bij regen
- AP1 Mobileye autopark nog altijd superieur t.o.v. van Tesla


Issues sinds radar is vervallen:

- Model 3/Y eigenaren genieten van de luxe om steeds auto high beam (AHB) uit te schakelen na elke inschakeling van autopark.
- Autopilot max snelheid naar 140km/u
- Autopilot volgafstand naar minimaal "2"
- Vervallen van NOA treed sneller op bij slecht weer
- De auto remt later en daardoor logisch harder op hogere snelheid omdat deze later reageert op afremmen voorliggers op afstand
- Veel zenuwachtiger rem gedrag.
- Volggedrag in files is veel zenuwachtiger, meer yoyo bij sportieve voorligger


Wel zijn de heftige phantombrakes verdwenen maar ik zou zeggen dat ik die liever terug heb want die waren (bij mij) sporadisch t.o.v. dat zenuwachtige gerem nu



Ach, misschien worden de nieuwe Teslas wel met betere cameras geleverd en dan is het een ander verhaal maar dat staat er niet bij. Probleem is dat het bestaande eigenaren zeker gaat raken. Ze zeggen wel van niet maar gezien ze radar ook gewoon bypassen gaat straks natuurlijk hetzelfde gebeuren met de ultrasonic sensors wanneer Elon Musk zegt dat hij vind dat de vision feature 'voldoende' is om het te vervangen. Want dan kan die code geschraps worden wat de software stack eenvoudiger maakt. Echter, dan mag je nog jaren wachten voor de kwaliteit weer op het oude niveau zit. Misschien wel zelfs nooit meer zolang jij de eigenaar bent van die auto.
 
Ik vraag me zo-ie-zo af hoe dat moet gaan werken. Bij inparkeren in smalle parkeergarages vindt ik de functie dat je ziet hoeveel cm je van de muur afzit erg prettig. Ik zou niet weten hoe dat met Tesla vision vervangen moet gaan worden met 1 camara achter. Deze kan naar mijn idee nooit de diepte bepalen.
 
Waarom zou dat bizar zijn? Als je bedenkt dat Tesla over wil naar vision only is dit een logische stap.
Wat er gaat gebeuren is dat de kwaliteit in eerste instantie achtruit gaat en na verloop van tijd zal er weer een verbetering in de functionaliteit gaan optreden.
Het is bizar omdat er vanaf deze maand auto's worden geleverd die super basic functionaliteit missen (park distance control). Nu beloofd Tesla dat "in de toekomst" te fixen met een firmware update, maar als we kijken naar dezelfde belofte bij het weghalen van radar dan zien we dat Vision Only auto's (meer dan een jaar later) nog steeds limitaties hebben (minimum distance, max AP speed, auto high beams).

Een tweede punt is dat het twijfelachtig is of de huidige set camera's überhaupt goed genoeg is om de ultrasone sensors te vervangen, er is namelijk een enorme blind spot aan de voorkant. Zie o.a. deze tweet:
Maar wellicht valt het weghalen van de sensors samen met een nieuwe camera setup? In dat geval zou je toch verwachten dat dat genoemd wordt in de press release.

Hoe dan ook, een merkwaardige move om eerst hardware weg te halen en daarna de software te ontwikkelen. Er zal vast een business decision (kostenbesparen of aflopend inkoopcontract) zijn, en niet zozeer een technische.
 
Along with the removal of USS, we have simultaneously launched our vision-based occupancy network – currently used in Full Self-Driving (FSD) Beta – to replace the inputs generated by USS. With today’s software, this approach gives Autopilot high-definition spatial positioning, longer range visibility and ability to identify and differentiate between objects.
Dit klinkt goed toch?
 
Die blind spots worden gezien bij het inrijden door resp. de voorste en de achterste camera. Misschien kunnen ze die informatie opslaan en er nog steeds rekening mee houden als ze al uit het zicht verdwenen zijn.
Dan mag de situatie daar wel niet veranderen.
Ook bij voorwaarts kort indraaien achter een muur of in een garage, komen obstakels achter de muur nooit in beeld. Terwijl je toch moet kunnen inschatten of die ruimte vrij is om verder in te draaien.
 
  • Like
Reactions: OttoR and Krisja
Dit klinkt goed toch?

Haha, goed klinkt het wel ja!

> With today’s software, this approach gives Autopilot high-definition spatial positioning, longer range visibility and ability to identify and differentiate between objects.

Heb je de laatste AI day videos gezien? Dat het vision netwerk feitlijk voxels genereert? Die voxels zijn helemaal niet zo nauwkeurig. Ook niet gek gezien de resolutie van de cameras. Voldoende voor rijden maar niet voldoende voor parkeren met centimer nauwkeurigheid. Zeker niet als de auto die niet eens kan waarnemen.
 
Zo'n 3D-kaart van de omgeving, waar o.a. de nieuwe iPhones erg goed in zijn, worden gemaakt door een lidar sensor. Maar waarom niet met een stereo camera? Omdat Apple de kostprijs van de iPhone hoger wou maken? Natuurlijk niet.

Als je vroeger wel eens een 3D-foto hebt gemaakt door 10-20 foto's (of een filmpje) te maken van een gebouw, dan kwamen 2 dingen naar voren: precisie (rare kronkels en afrondingen) en proces-tijd (kon wel uren duren). De iPhone kan dat real-time met hogere precisie. Gedeeltelijk omdat er meer processorkracht is, maar grotendeels omdat de "dept-map" van hoge kwaliteit is.

Tesla claimt dit dus te kunnen doen met alleen camera's die niet eens stereo zijn, puur op basis van het bewijs dat mensen het ook kunnen. Maar dan moet de AI heel veel aannames doen om de kaart goed te krijgen, ook al is er oneindig veel tijd.

Enkele situaties die dan in de praktijk moeilijk gaan zijn:
  • Parkeren langs stoep met voetgangers. Dus niet-statische situaties.
  • Parkeergarage met niet-rechte muren. Dus plekken waar we zelf ook wel eens een aanname-fout zouden maken.
  • Krappe parkeerplekken. Daar waar hoge precisie nodig is.
  • Beschilderde voorwerpen. Als een bord met een stukje zwart tape al voor problemen kan zorgen, dan kan een kunstvoorwerp op de stoep dat helemaal.
Het gaat dus allemaal om hoeveel precisie je kan krijgen in hoeveel tijd. Bedrijven als Apple en Deepmind hebben diverse processen om dit soort problemen op te lossen en tot een product te komen, maar Tesla doe het anders. Het lijkt also Tesla's engineering gebaseerd is op het enorm sterke geloof dat als er maar lang genoeg heel slimme mensen nadenken over een probleem, je heel erg ver komt. We hebben nu een parkeersysteem dat door elke andere EV wordt overtroffen, en men kan het alleen nog goed praten door Lada ook in het rijtje mee te nemen - die heeft namelijk ook geen parkeersensors.

Maw: als Tesla hun engineeringscultuur en R&D-processeb niet omgooien, vertrouw ik er niet in dat ze het gaat lukken - misschien per toeval.
 
Issues sinds radar is vervallen:

- Model 3/Y eigenaren genieten van de luxe om steeds auto high beam (AHB) uit te schakelen na elke inschakeling van autopark.
- Autopilot max snelheid naar 140km/u
- Autopilot volgafstand naar minimaal "2"
- Vervallen van NOA treed sneller op bij slecht weer
- De auto remt later en daardoor logisch harder op hogere snelheid omdat deze later reageert op afremmen voorliggers op afstand
- Veel zenuwachtiger rem gedrag.
- Volggedrag in files is veel zenuwachtiger, meer yoyo bij sportieve voorligger

- En vision kan niet goed het verschil zien tussen auto's en motoren met lage achterlichten:

Voordeel is wel dat je geen last meer hebt van de complexiteit van 'sensor fusion', vermoedelijk de oorzaak van de phantom brakes waarbij de radar en camera's elkaar tegenspreken.

Wist overigens nog niet dat autopilot automatisch 1 seconde voor een gedetecteerde 'imminent crash' uitschakelt, zodat Tesla kan claimen dat autopilot niet actief was.
 
Zo'n 3D-kaart van de omgeving, waar o.a. de nieuwe iPhones erg goed in zijn, worden gemaakt door een lidar sensor. Maar waarom niet met een stereo camera? Omdat Apple de kostprijs van de iPhone hoger wou maken? Natuurlijk niet.

Als je vroeger wel eens een 3D-foto hebt gemaakt door 10-20 foto's (of een filmpje) te maken van een gebouw, dan kwamen 2 dingen naar voren: precisie (rare kronkels en afrondingen) en proces-tijd (kon wel uren duren). De iPhone kan dat real-time met hogere precisie. Gedeeltelijk omdat er meer processorkracht is, maar grotendeels omdat de "dept-map" van hoge kwaliteit is.

Tesla claimt dit dus te kunnen doen met alleen camera's die niet eens stereo zijn, puur op basis van het bewijs dat mensen het ook kunnen. Maar dan moet de AI heel veel aannames doen om de kaart goed te krijgen, ook al is er oneindig veel tijd.

Enkele situaties die dan in de praktijk moeilijk gaan zijn:
  • Parkeren langs stoep met voetgangers. Dus niet-statische situaties.
  • Parkeergarage met niet-rechte muren. Dus plekken waar we zelf ook wel eens een aanname-fout zouden maken.
  • Krappe parkeerplekken. Daar waar hoge precisie nodig is.
  • Beschilderde voorwerpen. Als een bord met een stukje zwart tape al voor problemen kan zorgen, dan kan een kunstvoorwerp op de stoep dat helemaal.
Het gaat dus allemaal om hoeveel precisie je kan krijgen in hoeveel tijd. Bedrijven als Apple en Deepmind hebben diverse processen om dit soort problemen op te lossen en tot een product te komen, maar Tesla doe het anders. Het lijkt also Tesla's engineering gebaseerd is op het enorm sterke geloof dat als er maar lang genoeg heel slimme mensen nadenken over een probleem, je heel erg ver komt. We hebben nu een parkeersysteem dat door elke andere EV wordt overtroffen, en men kan het alleen nog goed praten door Lada ook in het rijtje mee te nemen - die heeft namelijk ook geen parkeersensors.

Maw: als Tesla hun engineeringscultuur en R&D-processeb niet omgooien, vertrouw ik er niet in dat ze het gaat lukken - misschien per toeval.
De aanpak om een groep briljante engineers op een onmogelijk project te zetten werkte in het verleden anders prima bij het Manhattan- en Apollo project 😉
 
  • Like
Reactions: RobsEV and Hbrink