- Ares
- Messages : 646
Date d'inscription : 16/06/2020
Porche roule Open source !
Ven Oct 01 2021, 14:32
Bonne nouvelle, pour les acquéreurs de Porsche et la communauté des logiciels libres qui vont profiter des logiciels Porche.
Mieux, la « communauté » pourra participer au développement des logiciels de la marque.
Bon, rien de changer pour l’acquéreur d'une Porche...
On va pas lui demander de "pisser du code C, python, etc"... juste, comme dans l'ancien monde, de payer en brouzoufs son VE !
Tous les constructeurs automobiles utilisent des logiciels libres - y compris Tesla - et font partie d'une alliance.
Une alliance « réservée » à un club restreint... Porche va donc plus loin.
Source : https://www.4legend.com/2021/porsche-lance-une-nouvelle-initiative-open-source/?sfw=pass1633089348
Mieux, la « communauté » pourra participer au développement des logiciels de la marque.
Bon, rien de changer pour l’acquéreur d'une Porche...
On va pas lui demander de "pisser du code C, python, etc"... juste, comme dans l'ancien monde, de payer en brouzoufs son VE !
Tous les constructeurs automobiles utilisent des logiciels libres - y compris Tesla - et font partie d'une alliance.
Une alliance « réservée » à un club restreint... Porche va donc plus loin.
Nik Peters a écrit:« Les avantages sont multiples allant de niveaux élevés de maturité et de transparence des logiciels à des coûts inférieurs, des cycles de développement plus rapides et un délai de mise sur le marché plus court. »(Nik Peters, directeur de Porsche Open Source Office)
Source : https://www.4legend.com/2021/porsche-lance-une-nouvelle-initiative-open-source/?sfw=pass1633089348
flo18 et arim09 approuvent ce message
- GREY_64
- Messages : 2651
Date d'inscription : 05/08/2020
Localisation : Charente
Re: Porche roule Open source !
Ven Oct 01 2021, 18:17
@Ares a écrit:
Nik Peters a écrit:« Les avantages sont multiples allant de niveaux élevés de maturité et de transparence des logiciels à des coûts inférieurs, des cycles de développement plus rapides et un délai de mise sur le marché plus court. »(Nik Peters, directeur de Porsche Open Source Office)
Et peut-être un débogage plus rapide et moins couteux pour Porsche ? Tout comme des améliorations apportées par des "cerveaux" en dehors de chez Porsche ?
_________________
Base de données Bornes THP FRANCE IONITY, FASTNED, ALLEGO, ELECTRA, IECharge... & Tesla ouvertes à tous (format GPX).
Ares approuve ce message
- Ares
- Messages : 646
Date d'inscription : 16/06/2020
Voitures autonomes : grâce à Sony et son capteur
Lun Nov 22 2021, 19:37
« l’IMX 459 de Sony est non seulement incroyablement performant et précis, mais il promet aussi d’être bien moins cher que la concurrence. »
https://www.01net.com/actualites/comment-sony-pourrait-accelerer-l-arrivee-de-voitures-plus-sures-et-autonomes-grace-a-un-seul-capteur-2050674.html
C'est sans doute le composant qui sera plébiscité par les constructeurs automobiles.
Une petite révolution dans la simplification pour la sécurité de conduite.
Ce composant permet une vision en 3D avec une définition suffisante.
Pour faire simple.
Une abeille c'est un milliard de neurones. Suffisant pour se déplacer, apprendre, transporter, se défendre...
il en faut largement moins pour se « déplacer », éviter les obstacles, reconnaître une « cible », cartographier un trajet.
On sait que l'abeille se déplace en évitant les formes verticales et se sert de l’horizon pour se guider.
Ramener à l'échelle humaine, c'est partir et revenir d'un satellite de Jupiter pour aller faire ses courses sur la lune en évitant
des obstacles se déplaçant à plus de 70m/s. Bref, fastoche !
Pour « voir » un espace, on utilise une caméra, un radar à ondes millimétriques & un à ultrasons.
Par « voir », on ne demande pas à la machine de nommer les objets. La fonction « voir » est basique :
* obstacles
* lignes signalétiques
* OCR des panneaux routiers
Ce que « voit » l'ordinateur ne permet pas - dans certain cas - d'avoir une vision « vraie ».
Tesla le sait et certains constructeurs contournent le problème avec le radar millimétrique.
Tesla est très en avance, mais Google, IBM sont le must et ont un acquis qui remonte aux années "50" pour IBM
Les réseaux neuronaux (année 50) sont fortement parallèles et depuis les années 70 codés dans le silicium (ZISC).
( https://www.general-vision.com )
En schématisant :
une image (photo) avec une table & d'une chaise.
Un capteur (caméra) + ordi ZISC + algorithme, l'ordinateur sait faire la différence entre les deux objets.
La même image avec ombre (un pied de chaise), l'ordi est incapable de reconnaître notre chaise.
L'abeille ne se trompe pas !
Avec le capteur Sony à la place de la caméra, la chaise est reconnue !
On va devoir attendre un peu, mais félicitations aux ingés de Sony.
Pour aller plus loin...
(Si un administrateur peu changer le titre du topic en : Nouveautés ou avancés pour le VE - merci)
https://www.01net.com/actualites/comment-sony-pourrait-accelerer-l-arrivee-de-voitures-plus-sures-et-autonomes-grace-a-un-seul-capteur-2050674.html
C'est sans doute le composant qui sera plébiscité par les constructeurs automobiles.
Une petite révolution dans la simplification pour la sécurité de conduite.
Ce composant permet une vision en 3D avec une définition suffisante.
Pour faire simple.
Une abeille c'est un milliard de neurones. Suffisant pour se déplacer, apprendre, transporter, se défendre...
il en faut largement moins pour se « déplacer », éviter les obstacles, reconnaître une « cible », cartographier un trajet.
On sait que l'abeille se déplace en évitant les formes verticales et se sert de l’horizon pour se guider.
Ramener à l'échelle humaine, c'est partir et revenir d'un satellite de Jupiter pour aller faire ses courses sur la lune en évitant
des obstacles se déplaçant à plus de 70m/s. Bref, fastoche !
Pour « voir » un espace, on utilise une caméra, un radar à ondes millimétriques & un à ultrasons.
Par « voir », on ne demande pas à la machine de nommer les objets. La fonction « voir » est basique :
* obstacles
* lignes signalétiques
* OCR des panneaux routiers
Ce que « voit » l'ordinateur ne permet pas - dans certain cas - d'avoir une vision « vraie ».
Tesla le sait et certains constructeurs contournent le problème avec le radar millimétrique.
Tesla est très en avance, mais Google, IBM sont le must et ont un acquis qui remonte aux années "50" pour IBM
Les réseaux neuronaux (année 50) sont fortement parallèles et depuis les années 70 codés dans le silicium (ZISC).
( https://www.general-vision.com )
En schématisant :
une image (photo) avec une table & d'une chaise.
Un capteur (caméra) + ordi ZISC + algorithme, l'ordinateur sait faire la différence entre les deux objets.
La même image avec ombre (un pied de chaise), l'ordi est incapable de reconnaître notre chaise.
L'abeille ne se trompe pas !
Avec le capteur Sony à la place de la caméra, la chaise est reconnue !
On va devoir attendre un peu, mais félicitations aux ingés de Sony.
Pour aller plus loin...
(Si un administrateur peu changer le titre du topic en : Nouveautés ou avancés pour le VE - merci)
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum
|
|