Le soir du 2 octobre 2023, un robotaxi Cruise a percuté une piétonne à San Francisco qui avait déjà été renversée par un autre véhicule. Le véhicule autonome Cruise s’est ensuite garé — et a traîné la piétonne sur environ six mètres avant de s’immobiliser. L’incident, capturé par des caméras de surveillance, a déclenché une enquête du DMV californien, une instruction pénale, et en quelques semaines la suspension du permis d’exploitation de Cruise. General Motors a finalement retiré toute sa flotte de robotaxis et absorbé plus de 900 millions de dollars de pertes de sa filiale Cruise. Une question a traversé toutes les déclarations des entreprises et les dossiers réglementaires : lorsqu’une machine prend la décision de se déplacer, qui est responsable de ce qu’elle fait ?

Cette question n’a pas de réponse juridique claire en 2026. Avec Waymo qui exploite désormais des centaines de véhicules entièrement sans conducteur à San Francisco, Los Angeles, Phoenix et Austin, Tesla déployant son logiciel Full Self-Driving sur plus de deux millions de véhicules, et des acteurs chinois comme Baidu Apollo et Pony.ai qui s’étendent à l’international, la pression sur les législateurs, les assureurs et les tribunaux s’accélère plus vite que la technologie elle-même.

L’échelle SAE et le vide juridique

La Society of Automotive Engineers définit six niveaux d’automatisation de la conduite, du niveau 0 (aucune automatisation) au niveau 5 (autonomie totale dans toutes les conditions). Les cadres juridiques régissant la responsabilité ont été construits sur l’hypothèse d’un conducteur humain assis derrière un volant, vigilant et aux commandes. Au-delà du niveau 2 — où le système gère à la fois la direction et l’accélération mais nécessite toujours une supervision humaine continue — cette hypothèse commence à s’effondrer.

Au niveau 3, le véhicule peut gérer la plupart des tâches de conduite mais peut demander à l’humain de reprendre le contrôle si nécessaire. La Volvo EX90 et le Mercedes-Benz Drive Pilot, tous deux approuvés pour une exploitation limitée au niveau 3 dans certains États américains et en Allemagne, se trouvent dans cette zone d’ambiguïté juridique. Mercedes a explicitement accepté la responsabilité du fabricant pour les incidents Drive Pilot lorsque le système est activé — un acte historique qui reconnaît effectivement que l’humain n’est plus le décideur principal.

Les véhicules de niveau 4, qui peuvent fonctionner sans intervention humaine dans une zone géographique définie (un « geofence »), sont là où les choses deviennent véritablement complexes. Waymo opère au niveau 4. Il n’y a pas de volant à l’arrière d’un robotaxi Waymo One. Si le véhicule percute un cycliste, la question de « l’erreur du conducteur » est presque philosophiquement incohérente. L’humain ne conduisait pas. Le logiciel conduisait.

Accidents réels, litiges réels

Le bilan sécurité de Waymo est souvent cité comme preuve que la technologie des véhicules autonomes est plus sûre que la conduite humaine. Une étude publiée dans la revue Nature en 2024 analysant 7,1 millions de miles de conduite autonome Waymo a trouvé une réduction statistiquement significative des accidents avec blessés par rapport aux références de conduite humaine. Mais les véhicules Waymo n’ont pas été sans accidents. Les incidents documentés comprennent des collisions à faible vitesse avec des cyclistes, un tamponnement par derrière par un conducteur humain pendant que le Waymo était arrêté, et de multiples interactions avec des véhicules d’urgence ayant entraîné des perturbations du trafic.

La situation de Tesla Full Self-Driving est catégoriquement différente. FSD est un système de niveau 2 — le conducteur doit rester attentif et est légalement responsable du comportement du véhicule. Pourtant, le langage marketing autour de FSD a longtemps laissé entendre plus de capacités que la technologie ne peut offrir, et la National Highway Traffic Safety Administration a ouvert de multiples enquêtes sur les accidents liés à FSD, dont un rappel en 2023 de plus de 360 000 véhicules après que le logiciel FSD a été jugé responsable de comportements dangereux aux intersections. La distinction critique : dans les accidents Tesla, la responsabilité incombe généralement au conducteur humain selon la loi actuelle, même lorsque FSD était activement engagé. Les avocats de la partie civile contestent de plus en plus cette position en justice, arguant que les défauts logiciels constituent une responsabilité du fait des produits indépendamment de ce qu’indique le manuel du propriétaire.

L’incident Cruise d’octobre 2023 a conduit l’entreprise à régler discrètement avec la victime pour un montant non divulgué. Il a également incité la Californie à adopter le SB 915 en 2024, obligeant les entreprises de véhicules autonomes à partager les données d’incidents avec les régulateurs de l’État dans les 72 heures.

Le cadre américain : un fédéralisme en patchwork

Les États-Unis ne disposent d’aucune loi fédérale sur la responsabilité des véhicules autonomes au début de 2026. Le plan global de la NHTSA pour les véhicules automatisés, mis à jour en 2023, établit des exigences de déclaration et des directives volontaires d’évaluation de la sécurité, mais ne résout pas la question centrale de la responsabilité. Celle-ci a été laissée aux États individuels, donnant lieu à un patchwork que les entreprises et les assureurs trouvent extrêmement difficile à gérer.

La Californie exige que les opérateurs de véhicules autonomes maintiennent une assurance de 5 millions de dollars par véhicule. L’Arizona, qui a historiquement été l’État le plus permissif en matière de véhicules autonomes, autorise les tests entièrement sans conducteur avec un minimum d’obligations de déclaration. Le Texas a adopté une législation en 2023 précisant que les opérateurs de véhicules autonomes portent la responsabilité en l’absence de conducteur humain. Le Nevada dispose du cadre le plus ancien pour les véhicules autonomes, remontant à 2011, et a progressivement transféré la responsabilité vers les fabricants à mesure que les niveaux d’autonomie augmentent.

Plusieurs projets de loi fédéraux ont été déposés — le SELF DRIVE Act a été adopté par la Chambre en 2017 mais n’a jamais été soumis au vote du Sénat. En 2025, une proposition bipartite pour créer un cadre fédéral de responsabilité des véhicules autonomes a été introduite, soutenue par une coalition de constructeurs automobiles et d’entreprises technologiques cherchant une uniformité juridique. Elle reste en commission.

L’Europe emprunte une voie différente

L’Union européenne a procédé de manière plus délibérée et, sans doute, plus cohérente. La directive européenne sur la responsabilité du fait des produits, mise à jour et adoptée fin 2024, inclut explicitement les systèmes pilotés par l’IA — y compris les logiciels de véhicules autonomes — dans son champ d’application. Les fabricants peuvent être tenus strictement responsables des dommages causés par des systèmes d’IA défectueux, avec un renversement partiel de la charge de la preuve : les plaignants n’ont plus besoin de prouver exactement comment le logiciel a failli, seulement que le préjudice est survenu et que le produit était défectueux.

L’Allemagne, qui avait déjà autorisé l’exploitation au niveau 3 en vertu de la loi sur la conduite autonome de 2021 (AFGBV), est allée plus loin en 2023 en exigeant une « personne de supervision technique » obligatoire pour les véhicules de niveau 4 — un opérateur à distance qui surveille et peut intervenir, créant un modèle de responsabilité hybride qui attribue une responsabilité partielle à l’opérateur et au fabricant.

L’Automated Vehicles Act 2024 du Royaume-Uni a introduit une désignation spécifique d’« Authorised Self-Driving Entity » (ASDE). Lorsqu’un système désigné ASDE conduit, c’est le fabricant qui porte la responsabilité — pas le propriétaire. Il s’agit d’une solution claire et élégante qui supprime l’ambiguïté pour les assureurs et les tribunaux, et plusieurs entreprises de véhicules autonomes ont publiquement salué le modèle britannique comme une référence.

Advertisement

Chine : une réglementation permissive comme politique industrielle

La Chine poursuit une philosophie différente. Le ministère de l’Industrie et des Technologies de l’information et le ministère de la Sécurité publique ont progressivement assoupli les exigences de test pour les véhicules de niveau 4 et 5, Pékin, Shanghai, Guangzhou et Shenzhen ayant toutes désigné de vastes zones urbaines comme zones de test ouvertes pour les véhicules autonomes. La réglementation chinoise de 2022 tient les fabricants responsables des défaillances en mode de conduite autonome, mais a fixé des seuils d’assurance relativement bas et privilégie les sanctions administratives plutôt que les litiges civils comme mécanisme d’application principal.

Cette approche est explicitement conçue pour accélérer le déploiement domestique des véhicules autonomes. Le service de robotaxis Apollo Go de Baidu a effectué plus d’un million de trajets sans chauffeur de sécurité en 2023. Pony.ai a obtenu son premier permis pour facturer des courses commerciales pour des véhicules entièrement sans conducteur à Guangzhou en novembre 2023. L’environnement réglementaire facilite une mise à l’échelle que les marchés occidentaux, avec leurs systèmes juridiques plus adversariaux, ont eu du mal à égaler.

Assurance : une industrie qui réécrit ses propres règles

L’industrie de l’assurance est peut-être l’acteur le plus pratiquement déterminant dans le débat sur la responsabilité des véhicules autonomes. L’assurance automobile personnelle représente un marché annuel de 300 milliards de dollars aux seuls États-Unis, presque entièrement fondé sur le risque lié au comportement du conducteur humain. À mesure que l’autonomie augmente, le risque se déplace du comportement du conducteur vers la responsabilité du fait des produits — et les assureurs se repositionnent en conséquence.

AXA a piloté des produits d’assurance flotte spécifiques aux véhicules autonomes en Allemagne et au Royaume-Uni, fixant les primes en fonction de la version logicielle du système d’autonomie plutôt que de l’historique du conducteur. Allianz a publié un rapport en 2024 estimant que d’ici 2035, les sinistres en responsabilité du fait des produits pourraient représenter 40 % de l’ensemble des sinistres auto dans les marchés à déploiement massif de véhicules autonomes. Swiss Re a modélisé des scénarios dans lesquels les primes d’assurance automobile personnelle s’effondrent de 60 % au cours des 15 prochaines années à mesure que la responsabilité se déplace vers les fabricants — qui s’en prémunissent par des polices commerciales de responsabilité du fait des produits.

L’implication pratique : si vous possédez un véhicule de niveau 4 et qu’il cause un accident en mode de conduite autonome, votre assurance automobile personnelle pourrait ne pas le couvrir. La police de responsabilité du fait des produits du fabricant s’appliquerait. Lloyd’s of London a commencé à rédiger une couverture spécialisée en « responsabilité des systèmes autonomes » pour les fabricants de véhicules autonomes, couvrant à grande échelle les décisions logicielles des machines.

La question de la responsabilité stricte

Le débat le plus significatif non résolu dans le droit des véhicules autonomes est de savoir si les fabricants de véhicules autonomes devraient faire face à une responsabilité stricte — c’est-à-dire une responsabilité sans nécessité de prouver la négligence — pour les accidents causés lors de la conduite autonome. La responsabilité stricte s’applique déjà aux activités intrinsèquement dangereuses et, dans la plupart des juridictions, aux défauts de fabrication dans les produits physiques.

Les partisans soutiennent que la responsabilité stricte est le seul cadre qui ait du sens pour les systèmes de niveau 4 et 5. Lorsqu’il n’y a pas de conducteur humain à évaluer pour négligence, la question est simplement : le produit a-t-il causé un préjudice ? Si oui, le fabricant paie. Cela crée de puissantes incitations à investir dans la sécurité et supprime pour les victimes d’accidents la charge de reconstituer des arbres de décision logiciels complexes devant les tribunaux.

Les opposants, principalement les fabricants de véhicules autonomes et leurs groupes de pression, soutiennent que la responsabilité stricte freinerait l’innovation, rendrait l’assurance prohibitivement chère et pénaliserait les entreprises pour des accidents causés par des facteurs hors de leur contrôle — un piéton s’engageant inopinément sur la chaussée, des conditions météorologiques extrêmes ou des défaillances d’infrastructure. Ils prônent un modèle fondé sur la négligence avec des normes actualisées tenant compte de la nature probabiliste et statistique des décisions logicielles.

La directive européenne révisée sur la responsabilité du fait des produits tend vers la responsabilité stricte pour les défauts logiciels. Les États-Unis avancent plus lentement. La façon dont cette question se résoudra déterminera si l’économie du déploiement des véhicules autonomes est viable — et qui paie quand les machines à qui nous avons confié le volant se trompent.

Advertisement

Radar de Décision (Prisme Algérie)

Dimension Évaluation
Pertinence pour l’Algérie Moyenne — l’Algérie ne dispose d’aucune réglementation sur les véhicules autonomes, mais les cadres juridiques mondiaux en cours de construction façonneront les futures lois sur les transports, la réglementation des assurances et les règles d’importation technologique
Infrastructure prête ? Non — la connectivité V2X (vehicle-to-everything) requiert une couverture 5G et une infrastructure de capteurs routiers non encore présente à grande échelle en Algérie ; les conditions routières et l’urbanisme accusent également du retard
Compétences disponibles ? Partielle — l’expertise juridique en systèmes autonomes est minimale ; le talent en ingénierie des véhicules autonomes est quasi absent sur le plan domestique, bien que la diaspora et les ingénieurs de retour pourraient combler cet écart
Calendrier d’action Surveillance uniquement — l’Algérie est probablement à 8-12 ans d’un déploiement significatif des véhicules autonomes ; la priorité est de surveiller les cadres internationaux pour alimenter les futurs projets de politique
Parties prenantes clés Ministère des Transports, Ministère de la Justice, secteur des assurances (SAA, CAAT), Conseil national de la sécurité routière, monde universitaire juridique
Type de décision Éducatif / Surveillance

Prise rapide : Le ministère des Transports et le système judiciaire algériens disposent d’une fenêtre d’opportunité pour étudier les modèles internationaux de responsabilité des véhicules autonomes — notamment le cadre ASDE clair du Royaume-Uni et la directive européenne actualisée sur la responsabilité du fait des produits — avant que les véhicules autonomes n’arrivent sur le territoire national. Pour les assureurs algériens, le transfert de responsabilité du conducteur vers le fabricant représente une perturbation fondamentale du modèle économique qui mérite d’être suivie dès maintenant, et non après l’arrivée de la technologie.

Sources et lectures complémentaires