Also kw/h pro Stunden wäre genauso ungeeignet.
Am beste wäre der Leistungsmittelwert.
LZ = Ladezeit in Stunden
Wh = Wattstunden des gesamten Ladevorgang
Leistungsmittelwert = Wh / LZ
Dadurch hätte man einen Wert der unbeeindruckt, von einzelnen Ladepeaks ist und verdeutlichen die durschnittliche Ladeleistung vom Auto.
Wahrscheinlich wären sogar zwei Leistungsmittelwert wichtig, einmal von 0 % bis 100 % und von 10 % bis 80 %.
Mit dem Mittelwert könnte man die Autos untereinander sehr gut vergleichen.
Einzelne Leistungspeak mit 200 oder 300 kw, bringen nichts, wenn die nur über 20 Sekunden gehalten werden und anschließend mit 70 kw weiter geladen wird. Der Hersteller kann zwar sagen, das Auto kann mit 200 oder 300 kw laden, hat für den Nutzer, jedoch nur eine geringe Bedeutung.
Viel wichtiger ist mit welcher Ladegeschwindigkeit ein Auto durchschnittlich laden kann.
Ich bin Entwickeler für Lastmanagement in Industrieunternehmen und ich kann da wirklich aus Erfahrung sprechen.
Die Maximale Ladegeschwindigkeit ist zwar nett, aber wenig Aussagekräftig.
Besser sind die Angaben der Ladezeit von 10 % auf 80 %, obwohl dann einige Hersteller die Ladezeit 5% - 85 % angeben, was es auch wieder schwer vergleichbar macht.
Daher wäre eine Gesetzliche Vorschriften am besten für den Leistungsmittelwert von 10 % - 80 % und 0 -100 . Da können die Autohersteller nur weniger Tricksen. Natürlich die Autohersteller werden dort Werte angegeben, wo nur unter perfekt Bedingungen erreichbar sind und nur selten in der Realität erreicht werden.
Natürlich müsste man noch definieren, unter welchen Bedingungen der Leistungsmittelwert ermittelt wird , die Außentemperatur und ob der Akku vor geheizt werden darf oder kalt sein muss.
Wenn das alles beachtet wird erhält man Werte die einen zuverlässig vergleich ermöglichen.
Aber ich befürchte so schnell wird es den Leistungsmittelwert nicht geben, obwohl es nach meinem Erachtens sehr sinnvoll wäre.
Viele Grüße
Lars