Mir ist immer wieder aufgefallen dass das Balancing für viele User Probleme bereitet. Dabei gibt die Ladekuve bzw die Kurvenschaar doch einiges her. Es liegt daran, dass man sich eine Zelle gerne als Eimer vorstellt. Man kann ihn ausleeren und einen gefüllten Eimer hineingießen. Fertig! Aber ganz so einfach ist das nicht. Man muss eine Vorstellung davon haben, wie eine Flasche aussehen würde, die die Charakteristik der Ladekurve abbildet. Ein wenig überlegen muss man dann schon. Und dann fällt einem auf, dass es eine Menge Rechenarbeit sein könnte. Ich stelle mir eine Flasche mit einer Höhe von 370mm vor. Entsprechend 10mV-Schritten pro mm. Durch diese Höhe ist ein Vergleich mit einem Haushaltswassereimer gut möglich. Das Volumen soll 28Deziliter, entsprechend 280Ah sein. Jetzt kommt aber der Durchmesser. Er ist von der Ladekurve abhängig. Also in Gedanken erste Schritte. Dann fiel mir auf, dass es eine pefekte Testaufgabe für ChatGPT wäre. Da ich schon mal eine Aufgabe erstellt habe, würde mich interessieren wie ChatGPT auf ähnliche Fragestellung anderer user reagiert. Bisher kam viel kluges Gerede und extrem viel Müll. Immer wieder habe ich versucht ihn auf den richtigen Weg zu bringen (den er selbst schon beschrieben hat. Aber es kommt immer wieder Müll und er hält sich nicht an das Konzept. Deshalb kam mir jetzt die Idee, daraus eine Challange zu machen: Wer präsentiert als erster eine von ChatGPT erstellte Abbildung mit akzeptalen Dimensionen neben einem Wassereimer. Man könnte zum Beispiel die Kurvenschaar von
verwenden und uf die dritte Kurve von oben (0,05C Charge) hinweisen:
Wenn die voll ist, siehst du den Inhalt von oben also weißt du dass die 100% gefüllt ist.
Genau so beim entleeren, du weiß zwar ungefähr wieviel du entleert hast und spürst auch dass die leichter wird, aber genau weißt du es erst wenn die Flasche ganz leer ist und nix mehr rauskommt also 0%
So sieht die Flasche z.B. aus
Also ich finde die Analogie zur Flasche schön. Die Kennlinie übersetzt in eine Flaschenform wäre also ungefähr so: am Boden sehr geringer Durchmesser, im mittleren Bereich sehr großer Durchmesser, und oben wieder sehr geringer Durchmesser. D.h. im mittleren Bereich steigt der Wasserspiegel so langsam, dass man an der Wasserhöhe kaum erkennen kann, wieviel drin ist. Nur unten und oben ändert der Wasserspiegel schnell.
Ich halte aber den Versuch, von einem schlau daherredenden Deppen (=Chat-GPT) vernünftige Antworten bekommen zu wollen, für verlorene Zeit. Eigentlich ist Chat-GPT ein vollkommen ahnungsloser Copy-Paste-Indianer, der seine komplette Unwissenheit durch gute und selbstbewusste Formulierungen überdeckt. Eigentlich wie wie ein typischer Politiker
So ist es. Und wie gesagt, die Analogie zu einer Flasche passt eh nicht.
Das ist, wenn überhaupt, eine Gummiflasche mit Löchern, deren Form und Grösse von unendlich vielen Faktoren abhängt, und sich auch andauernd verändert.
Da aber schon der Ausgangsbeitrag des TO deutliche Anzeichen von KI in sich trägt wirds wohl hier auf weiteren KI-Blödsinn hinauslaufen.
Hallo,
warum wird hier KI vermutet? Den Versuch, dem Laien den Stromfluss mit Wasserleitungen zu erklären, habe ich schon in alten Lehrbüchern von 190x gesehen. Das ist doch nichts neues. Die Beispiele - wie hier mit der Flasche - dienen doch nur der Veranschaulichung. Strom können wir nicht sehen, richen, anfassen. Also nimmt man Beispiele aus dem Leben, die wir kennen und nachvollziehen können.
In dem Lehrbuch war die Wirkung eines Kondensators mit menschlichen Anziehungskräften beschrieben. Die jungen Menschen sitzen nach Geschlechtern getrennt an gegenüberliegenden Wänden. Zwischen ihnen ist die Tanzfläche. Auf magische Weise ziehen sich die beiden Geschlechter an und wollen auf die Tanzfläche. Solange sie das nicht dürfen, ist der Kondensator "geladen".
Hier wird nicht KI vermutet. Ich habe KI diese Vorgabe gemacht um ihn zu testen. Natürlich in der Hoffnung, er würde mir Arbeit abnehmen. Und ich möchte herauskriegen, ob Ki lernt, wenn Andere ebenfalls solche Aufgaben stellen. KI hat heute wieder mit klugen Sprüchen um sich gehauen und ist dann um den heissen Brei herumgelaufen. Auch mit Ausreden. Es entsteht auch der Eindruck dass KI vergesslich ist. Aber haupsächlich wenn er versagt hat. Ich teste weiter...
Er hat inzwischen wieder eine genaue Beschreibung der Ladekurve formuliert und seine weitere Vorgehensweise beschrieben. Nach seiner Angabe muss er die richtige Kurve erkannt haben Zitat: "Als nächstes werde ich die rote durchgezogene Linie..." Die muss erselbst erkannt haben. Ich habe weder gesagt dass sie rot noch durchgezogen ist. Leider ist daraus nur ein Gekritzel geworden, mit dann falscher Beschreibung die nur auf das Gekritzel passt...
Ein kleiner Gedankensprung meinerseits, als du von der roten durchgezogenen Linie sprachst: Es gibt es nettes Video, in dem ein Marketingmensch, ein CEO, eine Werbefrau usw. ein Projekt starten wollen: "zeichne mit einem roten Stift 7 grüne Linien, die alle zueinander rechtwinklig sind". Und ein "Experte für grüne Linien" sitzt mit am Tisch und bekommt die Aufgabe, dies umzusetzen. Und er erklärt den anderen, dass das nicht ginge, dass höchstens zwei Linien zueinander rechtwinklig sein können und dass aus roter Tinte keine grünen Linien kommen. Worauf er viel Gegenwind aus der Geschäftsleitung bekommt, dass er doch der Experte sei und sich mal ein bißchen anstrengen solle.
Ich fände es mal interessant, wie GPT diese Aufgabe löst
Vorweg: Ich weiß das es gut gemeint ist aber so richtig verstehe ich den Sinn dahinter nicht. Wer Ladekurven lesen kann, ganz egal von welchem Akku der kann auch die Ladekurve eines Lifepo Akkus lesen und verstehen. Man muss sich nur damit befassen und dazu selbst beobachten was beim laden/entladen passiert, vorallem beim Bau eines DIY Akkus gehört das doch dazu.
So ist es...
Es ist echt schlimm geworden mit diesem KI Gedöns, und die meisten schenken dem ganzen auch noch Glauben, was meiner Meinung nach auch so gewollt ist. Es ist schon erstaunlich und erschreckend zugleich wie viele mittlerweile denken dieser KI Kram wurde zu ihrem gunsten zur Verfügung gestellt. Die ganze jüngere Generation ist doch schon vollkommen ferngesteuert. Zuerst das ganze Smartphone Gedöns womit viele wie Zombies durch die Gegend laufen (abgelenkt vom wichtigen), und jetzt auch noch dieses Pseudo schlaue KI Zeug. Ganz Youtube ist auch schon verseucht und voll mit Fake Videos von diesem Bullshit... und die Leute verblöden damit vollständig, keiner denkt mehr selbst nach oder recherchiert was andere MENSCHEN so darüber berichten, stattdessen heißt es nur noch: aber Chat GPT (und wie sie noch so alle heißen) hat dies und jenes gesagt... und genau das ist mMn so gewollt. Dabei ist es einfach nur das wie es @lars72 schon beschrieben hat, und dumm ist diese KI obendrein. Eine richtig intelligente KI die von Großem Nutzen sein könnte wird der normale Bürger niemals zu Gesicht bekommen, aber viele schlafen eben noch und glauben das was sie glauben sollen. Denn damit werden dann lieber K... geführt, und der Mensch wird irgentwann überflüssig werden.
Und wer nicht glaubt das ChatGPT einfach nur verbödet ist hier der Beweis, was jeder selbst testen kann, bis die Verblödungsmaschine gefixt wurde :
Ja, solche für die "normale Welt" klar ersichtlichen Fehler werden gefixt. Andere Fehler, die nur einer kleinen Zielgruppe auffallen, bestehen weiter. Hatte kürzlich ein ähnlich erschreckendes Kolbenrückholfeder-Ergebnis aus dem Bereich Windsurfen. Und nein, ich nutze GPT ja überhaupt nicht, aber bei normalen google-Suchanfragen bekommt man das ja auch schon ganz oben aufgetischt.
Vielleicht ein paar Anmerkungen dazu:
Niemand wird gezwungen, KI für die Lösung seiner Probleme zu nutzen. Wer es macht, sollte sich der Limitierungen bewusst sein, auch der als Halluzinationen bekannten Fehlinterpretationen, denen KIs unterliegen. Genau daran fehlt es aber leider zum Teil: die Ergebnisse werden aufgrund einer falschen Erwartungshaltung (die auch durch diverse Onlinemedien befeuert wird) ohne oder mit zu wenig Kritik angenommen. Diesbezüglich ist noch einiges an Aufklärungsarbeit zu leisten. Grundsätzlich sehe ich die unterschiedlichen KI-Bots (ich nutze dabei am häufigsten Perplexity) als praktische Helfer an, als Werkzeug, dessen Handhabung man aber lernen muss.
Mich nervt es auch, wenn Leute in Foren (oder neudeutsch Communities) Fragen nach dem Muster stellen: "ich habe das und das nach Anleitung vom KI Bot umgesetzt und es funktioniert nicht. Könnt ihr mir sagen, warum nicht?". Es bringt aber nichts, sich darüber aufzuregen: da hilft nur Aufklärung: für seine Mündigkeit ist jeder selbst verantwortlich.
Ich hatte den Chatbot einmal gefragt, wieso er mir erst nach der dritten Anfrage die korrekte Antwort gegeben hatte, obwohl er offensichtlich die richtige Antwort kannte. Die kurzgefasste Antwort war, dass es eine Limitierung im Algo ist und eine (teils nicht nachvollziehbare) Präferierung vorhandener Antwortmöglichkeiten. Andererseits kann die KI nur so gut sein, wie das Material, mit dem sie gefüttert wird, frei nach dem alten IT-Leitsatz: garbage in, garbage out.
Solange man das berücksichtigt, kann KI ein gutes Werkzeug sein. Wer glaubt, dass die KI das Denken ersetzen kann, hat mit ebenjenem, dem Denken, bereits aufgehört.
Über die Brücke gehe ich aber nicht. Wenn man Ratschläge, besonders bei Balancerfragen list, erkennt man selbst bei erfahrenen Usern, dass sie das nicht drauf haben.
Das mit Sicherheit nicht. Aber hast du dir mal die Dimensionen und Form solch einer Flasche gedacht? Ich bi sicher, dass jeder, der schon mal Wasser in eine Flasche gefüllt hat , durch eine Abbildung siht, was gemeint ist. Ich bin einfach nur zu faul, die Koordinaten , möglichst in 10mV Schritten aus dem Diagram zu nehmen. Das müsste KI doch viel besser können. Und das behauptet er auch. Und damn kommt nur noch Müll...
KI ist ein netter Assistent und hilft mir durchaus viel z B. beim programmieren. Mehr Routine Aufgaben, also der Lehrling.
Letzlich muß ich aber immer oder recht oft schlauer sein als er, sonst wird das nix.
Letztes mal fragte er mich, sollte ich eine Lösung finden, wüsste er sie gerne
Er kann sich offensichtlich nicht selbst überprüfen und haut einfach wie ein Politiker raus
Naja, ich verstehe die Idee, irgendeine Erklärung zu suchen, die man Anfängern geben kann.
Aber ich habe keine bessere Idee als ihnen beizubringen, wie man so ein Diagramm liest.
Wer das nicht kann, versteht auch eine Umsatzkurve nicht, oder einen Börsenkurs. Oder ein Oszillogramm : genau dasselbe.
Ein Benzinverbrauch über eine Zeit oder Strecke. Ein Kontostand über die Tage des Monats.
Aber wer einen Börsenkurs über die Zeit versteht, sollte auch eine Spannung über den Füllgrad verstehen. Das ist der Weg.
Ich sehe da keine andere Lösung. Und ich denke auch, man sollte das nicht anders erklären als genauso.
Ich habe ChatGPT mal nach der berühmten Blinkerflüssigkeit gefragt. Diesmal war die Antwort etwas besser. Darin kommt auch die Kolbenrückholfeder vor.
Natürlich steht es jedem frei, KIs zu nutzen oder nicht. Meine derzeitige Erfahrung ist, dass mir diese bisher noch nie eine korrekt funktionierende Lösung geliefert haben – selbst auf mehrfaches Nachfragen nicht. Ich konnte lediglich Ideen daraus gewinnen, die mich ein Stück weiter zum Ziel geführt haben. Leider habe ich auch einige Male sachlich absolut falsche Ergebnisse, teils das 100%ige Gegenteil des korrekten Ergebnisses, erhalten.
Mit dem Balancing muss ich mich bald auch auseinandersetzen, da ich neue Zellen in Betrieb genommen habe …
Also do schlecht ist die Datenbank Suchmaschine nicht.
Aber wie produktiv man sie nutzen kann ist nur eine interpretation der Beharrlichkeit wie sehr man was damit erreichen will.
Meiner wenigkeit hat sie schon sehr weiter geholfen was ich auf anderen wege nicht geschafft hätte.
Da gibt es hier eine schöne ellenlange Erklärung dazu.
Und in der Unterkategorie gibt es noch mehr dazu... Fast slles was das Herz begehrt, von dem es noch nichts wusste. Wie man z.b. eun bms zum Test ohne Akku inbetriebnehmen kann....