In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.
Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki
teilten dies erneut
Awet Tesfaiesus, MdB
Als Antwort auf Awet Tesfaiesus, MdB • • •3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.
Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbranche: Menschen machen mE ständig (!) Fehler!
Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.
Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?
Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?
Awet Tesfaiesus, MdB
Als Antwort auf Awet Tesfaiesus, MdB • • •Konkret: Ich könnte mir vorstellen, dass in dieser (!) konkreten Herangehensweisen an KI viel Coping steckt. Lügen wir uns hier kollektiv in die eigene (intellektuelle) Tasche?
Oder pfeifen wir hier sogar schon verzweifelt im Walde?
Liege ich komplett falsch?
Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •Ja, das ist in meinen Augen der komplett falsche Ansatz, der noch dazu die "Hirngespinnste" von #KI herunterspielt.
Es fängt schon beim Begriff an, der uns vorhandene Intelligenz vorgaukelt. Weder diese noch Empathie ist wirklich vorhanden. Es werden Inputdaten einfach nur ausgewertet und in Beziehung gesetzt.
Aber wir nehmen die Ergebnisse als verwendbar (und wahr) as is wahr, nutzen sie sogar als Argumentation, gar als Beweis.
Darum sollte KI immer hinterfragt werden.
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •ich denke nicht, dass ich die Frage missverstehe.
Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •weil wir von Maschinen eben korrekte Antworten erwarten. Was würdest Du zu einem Taschenrechner sagen, der zu Deiner Frage, was ist 1 + 1? mal mit 3, mal mit 1 oder mal mit 2 antwortet.
Und ja, das ist zweierlei Maß, und in vielen Bereichen nicht ok. Doch daran müsstet zu allererst ihr, als MdB arbeiten.
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •Andreas Hütig
Als Antwort auf Awet Tesfaiesus, MdB • • •PDH
Als Antwort auf Awet Tesfaiesus, MdB • • •PDH
Als Antwort auf PDH • • •Awet Tesfaiesus, MdB
Als Antwort auf PDH • • •@PDH @oldperl
Das trifft es gut!
Aubrieta
Als Antwort auf Awet Tesfaiesus, MdB • • •Vertrauen ist ein sehenden Auges eingegangenes Risiko zur Komplexitätsreduzierung.
Ganz ohne geht es meiner Meinung nach nicht.
Deshalb sollten Prozesse Prüfschleifen haben, spätestens dann, wenn sie zu irreversiblen Konsequenzen führen ( zB Abbruch eines Hauses).
Je größer der Aufwand, die Verbreitung und das Ansehen einer Quelle (zB Schulbücher), desto mehr Qualitätssicherungsmaßnahmen erwarte ich. Alleine schon deswegen, weil die -> Informationsdarbietung <- deren Existenzgrundlage ist. Es ist ihre primäre Aufgabe.
Früher bedeutete ein Fehler in einer solchen Drucksache einen Reputationsverlust und war damit geschäftsschädigend.
@oldperl
Awet Tesfaiesus, MdB
Als Antwort auf Aubrieta • • •@Aubrieta @oldperl
Auf welcher Schule warst Du denn? Dass etwa Landkarten falsch sind, war bei uns default.
Aubrieta
Als Antwort auf Awet Tesfaiesus, MdB • • •Gymnasium während der 2000er.
Wir hatten nen Diercke Atlas, aber wenig länderspezifisch damit gearbeitet. Eher mit den Klimakarten und den Vegetationszonen etc.
Später hatte ich geography wg. bilingualem Unterricht, dafür gab es kein klassisches Lehrbuch.
Ich erinnere mich nur, dass die Erdkunde-Leute irgendwas zu Fruchtfolgen lernen mussten, so als gäbe es noch Kartoffelferien.
An falsche Landkarten erinnere ich mich nicht.
In der Zeit war aber auch nicht so viel Umbruch in lehrplanrelevanten Regionen. Könnte also auch ein "Jahrzehnt"-assoziiertes Problem sein.
@oldperl
Ortwin Pinke
Als Antwort auf Ortwin Pinke • • •und zur letzten Frage, nein, tun wir nicht, und die Politik geht da "mit gutem Beispiel" voran. Wer Hinterfragt #Trump denn wirklich, und öffentlich? Die Zivilgesellschaft, nicht die Politik.
Und weitere Beispiele könnte ich hier noch massenhaft aufzählen.
Ortwin Pinke
Als Antwort auf Ortwin Pinke • • •Mitglieder des Bundestages sind (sollten sein) Vertreter des Volkes, und sollen dort nach bestem (eigenen) Gewissen Entscheidungen für eben dieses Volk treffen.
Doch geschieht das wirklich noch. Ich denke nicht. Wir werden inzwischen von Einzelnen und Partei-Vorgaben regiert, und wer sich dem Fraktionszwang nicht unterwirft, ist schnell raus.
Und dann kommt noch eine "lügende" Maschine daher, gesteuert von Oligarchen, und wir sollen dort auch weg oder nicht so genau schauen.
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •nein, ich meine, und wünsche mir, wieder mehr Ehrlichkeit, verbunden mit mehr Gewissen.
Es geht nicht um "mehr Bullshit", es geht um möglichst "kein Bullshit"
Wir haben so viele Baustellen, sowohl im Land als in der Welt.
Klima, Sozialstaat, Europa - so viele Baustellen, und nur Schönredner:innen und Populist:innen am Ruder, oder eben Wirtschafts-gesteuerte Blackrock-Jünger.
Räumt endlich den @bundestag auf! Was macht ein Steuerverschwender wie #Spahn noch im Amt?
BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Ortwin Pinke • • •@oldperl grundsätzlich sollte es aber technisch möglich sein, mit geeigneteren Algorithmen (und Rechenleistung) eines Tages tatsächlich auch die Funktionsweise eines menschlichen Gehirns nachzubilden. Und ich finde das ehrlich gesagt ziemlich scary und gar nicht erstrebenswert.
@AwetTesfaiesus
Ailurot
Als Antwort auf BrennpunktUA debunked 🕵🏻♀️ • • •@BrennpunktUA
hm, was meint denn "nachbilden"? Letztlich ist eine Rechen-/und Rechner-Leistung immer ("nur") eine Rechenleistung und schlicht etwas anderes als die Leistung eines menchlichen Gehirns. Die Verarbeitungsprozesse eines Körpers mit entsprechenden Schnittstellen zur Umwelt können nicht "nachgebildet" werden. Man sollte aufhören, diese schrägen Narrative von sog. Künstlicher "Intelligenz" usw. mitzutragen.
@oldperl @AwetTesfaiesus
Ortwin Pinke
Als Antwort auf Ailurot • • •@Ottilie_Katz
Auch hier widerspreche ich.
Captain Kirk flog vor Jahrzehnten durch das Weltall und funkte über seinen aufklappbaren Kommunikator, "Scotty, beam mich rauf!"
Auch damals habe ich gehört, so was wie bei Star Trek wird es wohl nie geben.
Heute haben wir Smartphones, die ein vielfaches von dem, was ein einfacher Kommunikator kann, können.
Daher will und werde ich nie irgendetwas ausschließen, und spätestens mit Quantenrechnern wird noch mehr möglich.
@BrennpunktUA @AwetTesfaiesus
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •@oldperl @Ottilie_Katz @BrennpunktUA
So oft kannst du das aber nicht gehört haben: 😉
en.wikipedia.org/wiki/Beam_me_…
quotation from Star Trek
Contributors to Wikimedia projects (Wikimedia Foundation, Inc.)Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •Nun ja, wir wollen ja nicht päpstlicher sein als der Papst. 😏
"The original film series has the wording "Scotty, beam me up" in Star Trek IV: The Voyage Home and "Beam them out of there, Scotty" in Star Trek Generations. "
Zumindest besteht bei mir die Möglichkeit, es im Original gehört haben zu können. 😎
@Ottilie_Katz @BrennpunktUA
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •Ich möchte mich aber an der Stelle auch einmal für die tolle und vorbildliche Diskussion hier bedanken. Und sollte es Dich im Rahmen Deines Mandates mal nach Unterfranken verschlagen, würde ich mich über ein persönliches Kennenlernen bei einem Tässchen Tee oder Kaffee freuen.
@Ottilie_Katz @BrennpunktUA
BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Ortwin Pinke • • •@oldperl bin dabei und würde sogar aus Niederbayern anreisen 🚞+🛴 🙃
@AwetTesfaiesus @Ottilie_Katz
Awet Tesfaiesus, MdB
Als Antwort auf BrennpunktUA debunked 🕵🏻♀️ • • •Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •dazu gehört dann mal eine Delegierung. Keine Ahnung ob ich so was hier im KV hin bekomme.
@BrennpunktUA @Ottilie_Katz
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •@oldperl @BrennpunktUA @Ottilie_Katz ich bin seit meinem Mandat ja keine Deligierte mehr gewesen und war (bis auf einmal) immer da.
Aber Delegation ist schon besser.
Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •Du meinst also, ich sollte gleich MdB werden, und den Schritt Delegierter überspringen? 😇 😁
@BrennpunktUA @Ottilie_Katz
Awet Tesfaiesus, MdB
Als Antwort auf Ortwin Pinke • • •BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Awet Tesfaiesus, MdB • • •ich sprach von Unterfranken, nicht Berlin. Da bin ich mit ~8x Umsteigen den ganzen Tag lang unterwegs, wenn es gut läuft. Selbstverständlich Regionalbahn, da zumindest vom D-Ticket noch abgedeckt.
@oldperl @Ottilie_Katz
The mad Präsident
Als Antwort auf Awet Tesfaiesus, MdB • • •Sie sind nicht an der #Wahrheit interessiert!
psychologie-guide.de/die-dummh…
Die Dummheit ist allgegenwärtig und kennt keine Grenzen – Psychologie Guide
www.psychologie-guide.deMensch, Marina
Als Antwort auf Awet Tesfaiesus, MdB • • •Andreas Tengicki
Als Antwort auf Awet Tesfaiesus, MdB • • •@oldperl
In kurz:
Menschen sind Menschen, manipulierbar fehlerhaft.
Der Brockhaus/Wikipedia war recherhiert und "wahr".
Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.
LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.
Ist halt schwierig/falsch.
Awet Tesfaiesus, MdB
Als Antwort auf Andreas Tengicki • • •Ortwin Pinke
Als Antwort auf Awet Tesfaiesus, MdB • • •@andreas_tengicki
deswegen wohl das wahr auch in Anführungszeichen.
Schriftliche Sammlungen haben halt auch zumeist einen Zeitbezug mit ihrer Wahrheit, den man bei der Bewertung auch immer beachten sollte.
Kein einfaches Thema... 🤔
Andreas Tengicki
Als Antwort auf Awet Tesfaiesus, MdB • • •U.Lancier
Als Antwort auf Andreas Tengicki • • •@andreas_tengicki @oldperl Der Kernbegriff ist „ohne Verständnis“ von wahr und falsch.
Bei menschlichen Autor:innen ist im Rahmen ihrer Bildung und kulturellen Einordnung dieses Verständnis da, aber auch deren Wissen um ihr Fehlen. Keine LLM wird je aus Einsicht ein „ich weiß, dass ich nichts weiß“ formulieren.
Und wenn menschliche Autor:innen einen Fakt berichten, der der für sie gültigen Moral widerspricht, können die Lesenden das als Menschen mit ggf. abweichender Moral meist erkennen. Bei den moralfreien LLMs sind die formulierten Fakten absolut, ohne Hinweis auf das ggf. vorurteilsbehaftete Trainingsmaterial.
Awet Tesfaiesus, MdB
Als Antwort auf U.Lancier • • •Andreas Tengicki
Als Antwort auf Awet Tesfaiesus, MdB • • •@Ulan_KA @oldperl
Es geht nicht darum wie wir Menschen bewerten. Da wissen wir meist um die Fehleranfälligkeit.
Weil LLMs aber als Computer als Maschinen die "Wahrheit" oder zumindstens "gute berechnete (neutrale) Ergebnisse" formulieren wahrgenommen werden, ist es so gefährlich (bzw. falsch).
Die Halluzinationsmaschinen sind gut in der Textgenerierung. Wenn man den Text beurteilen kann, kann man es nutzen. Wenn man dem Text glauben muss, oder will wird es gefährlich.
U.Lancier
Als Antwort auf Awet Tesfaiesus, MdB • • •@andreas_tengicki @oldperl Das ist korrekt und liegt daran, dass menschliche Zeugen meist nicht für Zeugen sein ausgebildet und in dem Moment nicht vorbereitet sind.
Soweit sie es sind, sind die Wahrnehmungen und Berichte zu Fakten von menschlichen Zeugen selbst bei hoher Parteilichkeit sehr verlässlich, z.B. Reporter oder Schiedsrichter. Da muss schon sehr gezielt ein falsches Ergebnis angestrebt werden, z.B. bei Variete-Kunst („Zauberer“) oder Falschdarstellung von vorherein beabsichtigt sein, wie z.B. bei Kriegsberichterstattung.
Awet Tesfaiesus, MdB
Als Antwort auf U.Lancier • • •@Ulan_KA @andreas_tengicki @oldperl
Da bin ich absolut nicht an Bord.
Regelmässig scheitern Richter:innen bei Richterfortbildung an der eigenen Zeugenaussage und zwar selbst dann, wenn sie wissen, dass es darauf ankommen wird.
U.Lancier
Als Antwort auf Awet Tesfaiesus, MdB • • •@andreas_tengicki @oldperl Korrekt. Das ist dann auch sehr hilfreich, wenn die bei ihrer eigenen Fortbildung lernen, *wie* unzuverlässig Zeugenaussagen sind.
Diente diese Fortbildung dazu ihnen beizubringen, wie man als Zeuge Informationen sachlich und ohne Bewertung aufnimmt und erkennt, was echte Wahrnehmung und was eigene (fehlerbehaftete) Schlussfolgerung ist, und wie man es unterscheidet, dann hilft ihnen das kaum als Richter, bestenfalls, wenn sie mal selbst vor Gericht als Zeuge auftreten müssen.
Und ja, auch die, die es – z.B. als Journalist oder Schiedsrichter – professionell machen, müssten es lernen und manche schaffen es nie. Ich hab selbst keine journalistische Ausbildung, ich weiß nicht mal, ob das tatsächlich Teil davon ist, obwohl ich es erwarte.
Awet Tesfaiesus, MdB
Als Antwort auf U.Lancier • • •@Ulan_KA @andreas_tengicki @oldperl nach mehreren Monaten zeitlicher Differenz ist wenig mehr vorhanden, als der grobe Rahmen und wie das Geschehen (aber retrospektiv) empfunden oder gedeuteter wurde.
Wer hat wen zuerst geschlagen? Wer stand wo? Welche Farbe hatte die Jacke? Nobody really knows!
Ailurot
Als Antwort auf Awet Tesfaiesus, MdB • • •@oldperl
vCjK
Als Antwort auf Awet Tesfaiesus, MdB • • •Ich würde sagen: Ja, die Überprüfung menschlicher Ergebnisse ist uns so in Fleisch und Blut übergegangen, dass wir es schon unbewusst tun.
Der wichtige Punkt ist für mich aber gar nicht, dass Fehler gemacht werden, sondern wie sie behoben werden. Da haben wir für menschliche Fehler eine funktionierende Kultur, für LLMs nicht.
@oldperl
Chris-Evelyn
Als Antwort auf Awet Tesfaiesus, MdB • • •LLMs erzeugen plausibel aussehende Texte. Die sind *immer* zufällig gewürfelt, aber ziemlich oft passen sie, weil die statistische Verteilung des Ausgangsmaterials die Wahrscheinlichkeiten vorgibt.
Das ist es was passiert. Das große Problem ist, dass diese Dinger mit viel zu viel Bedeutung aufgeladen werden, von Befürwortern wie von manchen Gegnern.
Mein persönlicher Standpunkt entspricht ungefähr dem Artikel „I am an AI hater“: anthonymoser.github.io/writing…
I Am An AI Hater
moser’s frame shopAnna hat dies geteilt.
Awet Tesfaiesus, MdB
Als Antwort auf Chris-Evelyn • • •@chris_evelyn
Anwälte verdienen exakt damit ihren Lebensunterhalt ... seit Jahrtausenden.
Chris-Evelyn
Als Antwort auf Awet Tesfaiesus, MdB • • •Die machen etwas mehr als das.
Anwält*innen können lernen und haben Motivation, Perspektiven und Interpretationen.
Das fehlt alles bei LLMs.
Eine Anwältin kannst du fragen, wie sie zu einem Schluss gekommen ist und sie wird es dir erklären können, mit mehr Substanz als „diese Worte hab ich mal in ähnlicher Reihenfolge irgendwo gesehen“.
LLMs werden wieder Text produzieren, der aussieht, wie andere Antworten auf ähnliche Fragen aus dem Quellmaterial.
Awet Tesfaiesus, MdB
Als Antwort auf Chris-Evelyn • • •@chris_evelyn
Ich fürchte, da geht unsere Einschätzung über Angehörige meines Berufs doch sehr auseinander.
Ich sehe da wohl deutlich mehr Ähnlichkeiten als Unterschiede.
Chris-Evelyn
Als Antwort auf Awet Tesfaiesus, MdB • • •Natürlich gibt es überall Laberköppe, aber das hat jetzt mit LLMs nichts zu tun.
Z.B. ist mir nicht bekannt, dass irgendwer neue Atomkraftwerke bauen will, um mehr Anwält*innen auszubilden und zu betreiben.
Awet Tesfaiesus, MdB
Als Antwort auf Chris-Evelyn • • •Chris-Evelyn
Als Antwort auf Awet Tesfaiesus, MdB • • •Das war ein bisschen Snark gerade.
Aber da sind wir wieder bei meiner ersten Antwort: Wir neigen dazu, „KI“ zu überschätzen und mit zu viel Bedeutung zu versehen, weil die Ausgabe eben aussieht wie Sprache.
Und die Marketing-Abteilungen der KI-Firmen tun natürlich nicht nicht viel, uns davon abzubringen.
Hagen Bauer
Als Antwort auf Awet Tesfaiesus, MdB • • •Mastodon
social.caserio.deAwet Tesfaiesus, MdB
Als Antwort auf Hagen Bauer • • •@hbauer
Grundsätzlich richtig (allerdings: ich erinnere Zeiten, in denen alle (!) Widerrufsbelehrungen und alle (!) Hartz4-Bescheide falsch waren, restlos alle).
Aber mich interessiert hier die menschliche Seite, nicht die technische. Warum reagieren wir in der aktuellen Situation, wie wir reagieren?
Hagen Bauer
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Hagen Bauer • • •Hagen Bauer
Als Antwort auf Awet Tesfaiesus, MdB • • •After claiming to redeploy 4,000 employees and automating their work with AI agents, Salesforce executives admit: We were more confident about….
TOI Tech Desk (The Times Of India)Alexander Goeres 𒀯
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Alexander Goeres 𒀯 • • •@jabgoe2089
Das ist mir klar; warum sind wir nicht in gleichem Maße entsetzt, wenn Menschen regelmäßig diese Fehler machen.
BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Awet Tesfaiesus, MdB • • •etwas OT, ich weiß, aber bei kritischen Systemen (und Infrastruktur) und überall dort, wo es um Menschenleben geht, kommt noch hinzu, dass nur ein einziger, zuvor unerkannter "Glitch", getriggert durch ein einmaliges Ereignis, sehr großen Schaden auf einmal anrichten könnte... obendrein können Computersysteme grundsätzlich auch gehackt werden, auch eigentlich gut vom Internet abgeschottete, siehe z.B. #stuxnet
Dass Menschen alle zugleich versagen: unwahrscheinlich!
@jabgoe2089
nowhereman (nicht der andere!)
Als Antwort auf Awet Tesfaiesus, MdB • • •Ich arbeite mit solchen Systemen, die am Ende möglichst wenig Fehler aufweisen sollen. KI fällt es schwer mitzuteilen, wann ihre Ergebnisse unsicher sind, wenn deren Grundlagen Zweifel erlauben. Das ist bei anderen Systemen einfacher, weil deren Grundlage leichter ermittelbar sind.
Fehlerarten sind auch nicht gleich. Es gibt lässliche und schwerwiegende.
1/
nowhereman (nicht der andere!)
Als Antwort auf nowhereman (nicht der andere!) • • •Eine Antwort auf o.g. Problematik sind teurere LLM mit Reasoning.
Die bieten dennoch nicht die gleichen Einstellmöglichkeit eines transparenten Fehlerhandlings.
Awet Tesfaiesus, MdB
Als Antwort auf nowhereman (nicht der andere!) • • •Thomas
Als Antwort auf Awet Tesfaiesus, MdB • • •Fehlerhaft und Fehlerhaft sind hier in diesem Vergleich aber auch zwei paar Schuhe, wenn es um KI geht, versus Mensch.
Ich hab bisher von keinem Verwaltungsakt gehört, der das Gurgeln von Rohrreiniger als Mittel gegen Covid empfiehlt, mal so als Beispiel.
Awet Tesfaiesus, MdB
Als Antwort auf Thomas • • •@coastgnu
Dann haben wir wohl nicht denselben Horizont. Aus einer Akte von mir:
"Die Antragstellerin ist insoweit zur Mitwirkung verpflichtet. Vor diesem Hintergrund ist es schlechterdings nicht nachvollziehbar, warum sich die Antragstellerin angeblich nicht auf eine 300km lange Reise durch das IS-Gebiet begibt, um ihre Geburts- und Diplomurkunde persönlich in Rakka holen. Sie könnte ja auch ihre derzeit in Camp in der Türkei lebende Schwester schicken."
Thomas
Als Antwort auf Awet Tesfaiesus, MdB • • •🤯 mir krampft sich gerade der Magen
Weia, haben wir wirklich nicht, muss ich zugeben. Und solch eine Anordnung hat Bestand?
Da wäre ja selbst eine 300km Fahrt als Geisterfahrer, im Ferienverkehr auf der A1, noch weniger riskant!
So etwas hätte ich bis jetzt für vollkommen ausgeschlossen gehalten. Bin erschüttert, aber so was von!
Awet Tesfaiesus, MdB
Als Antwort auf Thomas • • •Chaotica
Als Antwort auf Awet Tesfaiesus, MdB • • •Der wesentliche Unterschied besteht in meinen Augen in der Geschwindigkeit.
Bisher war es schon so, dass das Debunking einer Falschaussage 10x so lang gebraucht hat.
Die Geschwindigkeit mit der LLM Texte produzieren macht eine Kontrolle oder Überprüfung endgültig völlig unmöglich.
Awet Tesfaiesus, MdB
Als Antwort auf Chaotica • • •Chaotica
Als Antwort auf Awet Tesfaiesus, MdB • • •Und ich bin gar nicht grundsätzlich gegen Technik und KI.
Ich finde nur, sie sollte dem Menschen dienen.
Statt selbst fahrende Autos hätte ich lieber eine Spülmaschine, die sich selbst ein- und ausräumt.
Und LLM/KI sollte nicht kreative Aufgaben übernehmen, sondern die Menschen von öden Jobs entlasten, wo es nur um die Anwendung von Regelsätzen geht.
Oder Analyse von richtig großen Datenmengen zB in der Medizin.
Falk S. 🇨🇦🐕🔋
Als Antwort auf Chaotica • • •Chaotica
Als Antwort auf Falk S. 🇨🇦🐕🔋 • • •Es ist lukrativer, weil unsere Regeln erlauben, dass es lukrativer ist. 🤷♀️
Awet Tesfaiesus, MdB
Als Antwort auf Chaotica • • •Lam 'al Adie
Als Antwort auf Chaotica • • •Flood the zone with shit?
Auch ein Problem, aber wie Du selbst sagst, braucht die "Wahrheit" viel mehr Ressourcen, weil Lügen leichter produziert werden.
Das eigentliche Problem sehe ich in der Verantwortung. Böswillige Nutzer _wollen_ Lügen produzieren, wenn aber die AI mit x% falschen/fehlerhaften Datensätzen trainiert wurde, werden für alle User fehlerhafte Antworten produziert.
@AwetTesfaiesus
Lam 'al Adie
Als Antwort auf Lam 'al Adie • • •Wer soll dafür verantwortlich sein?
Was sind die sozialen Implikationen einer technischen Entwicklung?
Ich habe immer mehr das Gefühl, dass "wir" von ChatGPT, Gemini aber auch Temu oder Primark so begeistert sind, weil sie uns ebenso faszinieren und begeistern wie vom Himmel fallende Holzkisten oder Glasperlen.
@AwetTesfaiesus
Awet Tesfaiesus, MdB
Als Antwort auf Lam 'al Adie • • •@Lamal @Chaotica
Exakt das Empfinde ich auch, aber ich traue meinem Empfinden hier eben auch nicht recht.
Chaotica
Als Antwort auf Awet Tesfaiesus, MdB • • •@Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.
Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten. 🤷♀️
Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.
Awet Tesfaiesus, MdB
Als Antwort auf Chaotica • • •@Chaotica @Lamal
Wenn Elektrizität keine Zauberei ist, ist sie von Magie für 99 von 100 Leuten kaum zu unterscheiden. 😉
Falk S. 🇨🇦🐕🔋
Als Antwort auf Awet Tesfaiesus, MdB • • •Expertenkommision Cyberunfall
Als Antwort auf Awet Tesfaiesus, MdB • • •@Chaotica @Lamal
Das ist aber eher ein Problem verursacht von unserer Bildungskatastrophe
Jaddy
Als Antwort auf Expertenkommision Cyberunfall • •@Expertenkommision Cyberunfall @Chaotica @Lam 'al Adie Auch, allerdings ist es bereits seit mindestens meiner Schulzeit in den 1970ern eher akzeptiert „nie gut in Mathe (oder Chemie oder Physik)" gewesen zu sein, also eigentlich naturwissenschaftlich ungebildet. Selbst als Promi im Fernsehen.
Wer sich hingegen dafür interessiert(e), Dinge weiss und erklären kann, Unfug und faktenfreie Meinungen nicht einfach stehen lässt, gilt als Streber, Nerd, wird bereits in der Schule gemobbt, in Filmen als Loser dargestellt.
Das führt dann z.B. dazu, dass erwachsene Menschen, die für sich und andere Verantwortung haben, die menschengemachte Klimakrise "nicht glauben“. Obwohl die Kurven eindeutig sind und die Zusam
... mehr anzeigen@Expertenkommision Cyberunfall @Chaotica @Lam 'al Adie Auch, allerdings ist es bereits seit mindestens meiner Schulzeit in den 1970ern eher akzeptiert „nie gut in Mathe (oder Chemie oder Physik)" gewesen zu sein, also eigentlich naturwissenschaftlich ungebildet. Selbst als Promi im Fernsehen.
Wer sich hingegen dafür interessiert(e), Dinge weiss und erklären kann, Unfug und faktenfreie Meinungen nicht einfach stehen lässt, gilt als Streber, Nerd, wird bereits in der Schule gemobbt, in Filmen als Loser dargestellt.
Das führt dann z.B. dazu, dass erwachsene Menschen, die für sich und andere Verantwortung haben, die menschengemachte Klimakrise "nicht glauben“. Obwohl die Kurven eindeutig sind und die Zusammenhänge in einem halben Dutzend Schulversuchen demonstrierbar. Was Hoimar von Ditfurth schon 1978 im Fernsehen getan hat.
Oder dass sie Infektionsrisiken und exponenzielles Wachstum nicht wahrhaben wollen. Was sind Wirkungsgrade. Warum ist Homöopathie Unfug.
"Naja, die Wissenschaft ist sich ja auch nicht einig“, „die einen sagen so, die anderen so“ und ähnliche Sprüche.
Das zieht sich durch alle Schichten und Altersgruppen. Bei weitem nicht nur „Bild“-Lesende.
Aber deshalb kann die „Bild“ (und „Welt" etc.) Kampagnen gegen Wärmepumpen fahren und die Fossil-Fans der CxU „eFuels“ als angebliche Lösung verkaufen.
Chaotica mag das.
Chaotica
Als Antwort auf Awet Tesfaiesus, MdB • • •Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“
Awet Tesfaiesus, MdB
Als Antwort auf Chaotica • • •@Chaotica @Lamal
Ich denke, ich spüre dasselbe "ungute Gefühl" wie Du, aber es fällt mir wirklich schwer, das aktuell sauber zu strukturieren. Mir fehlt sozusagen auch ein "Reasoning" (BS term!).
Chaotica
Als Antwort auf Awet Tesfaiesus, MdB • • •Meine Bank zB kann mir - selbst auf Nachfrage in der technischen Abteilung - nicht präzise erklären, wie mein Kreditscore zustande kommt. „Der Computer“ spuckt halt eine Zahl aus und die wird dann geglaubt.
Da ist kein wesentlicher Unterschied mehr zu „Priester liest aus Buch vor und man muss das einfach glauben.“
@Lamal
Expertenkommision Cyberunfall
Als Antwort auf Awet Tesfaiesus, MdB • • •@Chaotica @Lamal
Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt.
Awet Tesfaiesus, MdB
Als Antwort auf Expertenkommision Cyberunfall • • •@expertenkommision_cyberunfall @Chaotica @Lamal
Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:
„Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“
Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.
Expertenkommision Cyberunfall
Als Antwort auf Awet Tesfaiesus, MdB • • •Na, dann frag lieber nicht wieviel von den Menschenversuchen der Nazis in Medizin stecken.
Was aus dem Kaiserreich in unserem Staat steckt? Vieles was durch solidarische, linksgelesene Strukturen im Kaiserreich erkämpft wurde, aber auch vieles, was Konservative konservieren wollten.
Die Bundesrepublik war eine Befreiung, keine Revolution.
@Chaotica @Lamal
klara_tag
Als Antwort auf Awet Tesfaiesus, MdB • • •Ein Teil deiner Annahmen wird "Eliza Effekt" genannt.
Und folgender Satz klingt sehr nach dem Coping, dass du beschreibst:
"Der Mensch wünscht sich zwar menschliche Empathie von der KI, gleichzeitig genießt er die Gewissheit, es mit einer Maschine zu tun zu haben."
impulse.de/organisation/eliza-…
ChatGPT ist auch nur ein Mensch
Maximilian Münster (Impulse Medien GmbH)Gabe
Als Antwort auf Awet Tesfaiesus, MdB • • •die Frage, ob wir insgesamt genug hinterfragen, was von (echten oder vermeintlichen) Autoritäten kommt, ist erstens wichtig und zweitens klar mit "nein" zu beantworten.
So weit, so uninteressant.
Was macht man damit? Deine Frage, wie hier gestellt und beschrieben, wirkt auf mich wie "whataboutism", als solle gesagt werden, "das mit der KI kann so bleiben, weil wir Menschen ja auch sehr fehlbar sind". Stattdessen könnte man sagen, "wir Menschen machen schon so viel falsch, absichtlich oder nicht, da wird eine weitere unglaublich fehleranfällige 'Autorität' sicherlich keine positive Wirkung haben".
(Es gibt keine "neutrale" Fragestellung, es gibt keine "neutrale" Position. Bestenfalls eine instrumentierbare, häufiger eine absichtlich oder versehentlich suggestive.)
Alles das geht aber an der wichtigen Realität vorbei: es ist tatsächlich völlig egal, ob Sprachmodelle uns richtige Antworten geben, ob sie unsere E-Mails und Artikel schöner schreiben oder akkurat zusammenfassen, ob sie funktionierenden Code schreiben o
... mehr anzeigendie Frage, ob wir insgesamt genug hinterfragen, was von (echten oder vermeintlichen) Autoritäten kommt, ist erstens wichtig und zweitens klar mit "nein" zu beantworten.
So weit, so uninteressant.
Was macht man damit? Deine Frage, wie hier gestellt und beschrieben, wirkt auf mich wie "whataboutism", als solle gesagt werden, "das mit der KI kann so bleiben, weil wir Menschen ja auch sehr fehlbar sind". Stattdessen könnte man sagen, "wir Menschen machen schon so viel falsch, absichtlich oder nicht, da wird eine weitere unglaublich fehleranfällige 'Autorität' sicherlich keine positive Wirkung haben".
(Es gibt keine "neutrale" Fragestellung, es gibt keine "neutrale" Position. Bestenfalls eine instrumentierbare, häufiger eine absichtlich oder versehentlich suggestive.)
Alles das geht aber an der wichtigen Realität vorbei: es ist tatsächlich völlig egal, ob Sprachmodelle uns richtige Antworten geben, ob sie unsere E-Mails und Artikel schöner schreiben oder akkurat zusammenfassen, ob sie funktionierenden Code schreiben oder diesen korrekt pflegen, ob sie uns für Glückwunsch oder Trauer die "richtigen Worte" geben. Es ist egal.
Der Energieverbrauch (von der Chip-Produktion bis zum Betrieb), das ungefragte und unbezahlte Aufsaugen und Verwerten der Kreativen Leistung und Arbeit der (online-)Menschheit, die versteckte, unterbezahlte, zermürbende Arbeit für Tagging/Labelling und Tuning, das Abschieben jeder Verantwortung für das Produkt auf die Nutzer... Es gibt keine ethisch akzeptable Nutzung. Es gibt kein Kalkül, kein vertretbares Modell, kein humanes Weltbild nach dem sich die Kosten überhaupt einem Nutzen gegenüberstellen ließen, geschweige denn irgendwie akzeptabel sein könnten.
Leuchtzifferblätter, die mit Radium bemalt sind, sind im Dunkeln gut lesbar, und sehen auch hübsch aus. Aber egal, wie schön sie sind, egal, wie viele Sammler es gibt, egal, was für schöne Umsätze damit gemacht werden, egal, ob für die Käufer die Strahlung am Arm akzeptabel oder gefahrlos ist - die Belastung der Umwelt und der Menschen durch die Produktion (und am Ende die Entsorgung) war es nie Wert, konnte es nie Wert sein. "Der Nachtwächter kann die Uhr ablesen, ohne seine Augen umzugewöhnen" mag auch noch so nützlich sein, "Arbeiterinnen bekommen vermehrt Krebs" kann nicht aufgewogen werden. Nicht "wird nicht aufgewogen von den paar Nachtwächtern", sondern es ist nicht möglich.
Awet Tesfaiesus, MdB
Als Antwort auf Gabe • • •“…even the Abbot is concerned about the arrival of steam-engines when it isn’t yet steam-engine time.”
– Terry Pratchett (Raising Steam, aus dem Kopf zitiert)
Mensch, Marina
Als Antwort auf Awet Tesfaiesus, MdB • • •Ascendor
Als Antwort auf Awet Tesfaiesus, MdB • • •Interessante Betrachtungsweise. Ich denke einfach, Maschinen werden gebaut, um exakt und deterministisch zu arbeiten - in der Vergangenheit. Kreative und nicht-deterministische Maschinen sind in der Gesellschaft einfach nicht bekannt. Man ERWARTET von Maschinen Korrektheit, und nimmt deren Ergebnisse daher für bare Münze. (Was würdest Du zu einer Suchmaschine sagen, die Links ausspuckt, die es gar nicht gibt?)
Und dann ist die Überraschung und Empörung natürlich groß, wenn es nicht so ist.
Die von Dir aufgezeigten Beispiele von menschlichen Fehlern sind keine Empörung wert, genau aus dem Grund, den Du nennst. Menschen machen ständig Fehler. Hier gibt es keine andere Erwartungshaltung.
Meines Erachtens ist das aber auch alles richtig so. Wir müssen lernen, dass ein ...
Ascendor
Als Antwort auf Ascendor • • •Awet Tesfaiesus, MdB
Als Antwort auf Ascendor • • •Ascendor
Als Antwort auf Awet Tesfaiesus, MdB • • •Ad hominem als Antwort? Sympathisch.
Ich hatte bisher auch nicht den Eindruck, dass Du eine juristische Diskussion aufmachen wolltest. Du sprachst von gesellschaftlichem Coping.
Awet Tesfaiesus, MdB
Als Antwort auf Ascendor • • •@Ascendor Ein Beispiel:
D könnte sich wegen einer Beihilfe zum Diebstahl des B in einem besonders schweren Fall nach §§
242 I, 243 I S. 2 Nr. 1, 27 I strafbar gemacht haben, indem er ...
Hierzu bedarf es einer beihilfefähigen Haupttat des B.
B könnte sich gemäß §§ 242 I, 243 I 2 Nr. 1 strafbar gemacht haben, indem er … mitnahm.
Diebstahl gem. § 242 I ist …
---
Ein Wort plausibel wahrscheinlich nach dem anderen.
Ascendor
Als Antwort auf Awet Tesfaiesus, MdB • • •Die Wahrscheinlichkeit, die die KI benutzt, ist also gerade dadurch entstanden, dass sie Texte zum Training verwendet hat, die von Menschen erzeugt wurden. Daher WIRKT es, als wäre die KI eine Intelligenz. Ist sie aber nicht. Sie denkt nicht nach, sie reiht nur Wörter aufgrund von Wahrscheinlichkeiten aneinander.
Awet Tesfaiesus, MdB
Als Antwort auf Ascendor • • •Ascendor
Als Antwort auf Awet Tesfaiesus, MdB • • •malte
Als Antwort auf Awet Tesfaiesus, MdB • • •ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.
zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...
Awet Tesfaiesus, MdB
Als Antwort auf malte • • •@malte
Die "unknown unknowns" sind sicher valide.
Die "Industrialisierung"... nichts anderes passiert in der Verwaltung doch seit Jahrzehnten.
malte
Als Antwort auf Awet Tesfaiesus, MdB • • •jupp, die entwicklung ist überall nicht gut, und ich kann gut verstehen, dass dann manchmal "egal was, hauptsache was anderes" verlockend ist, aber ki, zumindest in dem rahmen wie es momentan benutzt und entwickelt wird, ain't it.
pharmakonzerne sind nicht die guten, aber sie können verhältnismäßig wenig schaden anrichten, weil die regularien ziemlich solide sind. natürlich erst immer *nachdem* menschen zu schaden kamen...
Bonita Mascota
Als Antwort auf Awet Tesfaiesus, MdB • • •Nein ich seh das auch so. Und nebenbei ist das eine philosophisch ziemlich interessante Frage. Ist unsere natürliche Intelligenz wirklich irgendwie erhaben über die maschinelle? Es gibt dazu viel spannende Literatur. Roger Penrose: "The Emperor's new mind" fällt mir gerade ein.
Witzigerweise scheint mir gerade die IT-Bubble, die ja in gewisser Weise mal besonders verantwortlich ist dafür, besonders streng mit den LLMs zu sein. Haben die einfach nur Angst um ihre Coder-Jobs?
1/
Johnny Than
Als Antwort auf Awet Tesfaiesus, MdB • • •Interessante Frage. Ich habe einige der Diskussionsthreads quer gelesen. Ich habe keinerlei juristische Erfahrung. Hier meine 2c. :)
Der eigentliche Skandal deiner Aussagen liegt IMHO in der hohen Anzahl der menschlichen Fehler. Wobei politisch motivierte rechtliche Fehler da nicht eingerechnet werden sollten - wir haben verschiedene Ebenen von Fehlern.
1/x
NeussWave
Als Antwort auf Awet Tesfaiesus, MdB • • •Am schönsten finde ich, wenn KI-Ludditen Nutzern von KI "Denkfaulheit" vorwerfen. Deren Argumente sind die Satanic Panic von TV, Videospielen, Google, Wikipedia, Kazaa, jeder neuen Technologie nur in pseudo-intellektuellem Gewand nochmal aufgewärmt und wirkt, als wären sie Lobbyisten der Rechteverwertungsindustrie.
Wären Computer ohne KI die deterministischen Maschinen die sie fordern würde nicht 3 mal am Tag ihr Word abstürzen weil sie Malware haben. Ich finds lächerlich
ProScience 🇪🇺
Als Antwort auf Awet Tesfaiesus, MdB • • •Ad 2: Nein.
Ad 3: Nein.
Plinubius 🇪🇺
Als Antwort auf Awet Tesfaiesus, MdB • • •Plinubius 🇪🇺
Als Antwort auf Plinubius 🇪🇺 • • •Plinubius 🇪🇺
Als Antwort auf Plinubius 🇪🇺 • • •Awet Tesfaiesus, MdB
Als Antwort auf Plinubius 🇪🇺 • • •@plinubius
Das stimmt sicher (wir nennen das dann Widerspruchsbehörde, ... und schaffen sie ständig ab).
Aber mich interessiert wirklich eher die menschliche Seite des Themas.
BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Awet Tesfaiesus, MdB • • •in bestimmten, spezialisierten Teilbereichen ganz bestimmt: z.B. könnte eine "AI" bei Texterkennung auch einfach mal 'sagen bzw. sich eingestehen': "da frage ich mal kurz einen (OCR) Experten, der das besser kann, als ich!"... regelmäßig interpretieren AIs bei mir in eigentlich perfekt lesbare Screenshots Dinge rein, die da ganz offensichtlich nicht stehen. Einem klassischen OCR-Tool der vergangenen etwa 20 Jahre würde das nicht passieren!
Also evtl. wieder weniger Generalismus?
Awet Tesfaiesus, MdB
Als Antwort auf BrennpunktUA debunked 🕵🏻♀️ • • •BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Awet Tesfaiesus, MdB • • •DerAsket
Als Antwort auf Awet Tesfaiesus, MdB • • •Die genannte Fehlerquote bei Verwaltungsakten erscheint mir relativ hoch gegriffen. Das Wunderbare ist dann ja aber auch, dass ein Korrekturmechanismus dennoch bereits angelegt ist, mittels Einspruch/Widerspruch oder zB im Steuerrecht weiterer Korrekturmöglichkeiten.
Also ja: Menschen sind auch fehlerbehaftet, aber dafür sind es eben Menschen und Nicht Marketing-Sprechblasen.
Awet Tesfaiesus, MdB
Als Antwort auf DerAsket • • •DerAsket
Als Antwort auf Awet Tesfaiesus, MdB • • •Vielleicht sollten wir präzisieren, über welche Arten von Verwaltungsakten man spricht.
Wenn ich mir allein überlege, wie viele Tausende Abwassergebührenbescheide täglich erlassen werden.
Ich würde nicht ausschließen, dass in der Sozialverwaltung Bescheide fehleranfäliiger sind.
Awet Tesfaiesus, MdB
Als Antwort auf DerAsket • • •@DerAsket Ja klar.
(Wenngleich: das sind faktisch ja Rechnugsautomationen und wenn einmal die Satzung kaputt oder die Gebührenkalkulation falsch war, sind eben über Jahre hinweg auch alle Bescheide materiell fehlerhaft - jenseits der rechtlichen Unangreifbarkeit)
Morsus Apri R.I.P. Natenom🕯️🖤
Als Antwort auf Awet Tesfaiesus, MdB • • •AfD-Mitglied mit gewalttätiger Vergangenheit in diversen rechtsradikalen Gruppen und MdL im Landtag BW.
Nach dem Hinweis, dass es im Landtag BW nie eine Person gab, rudert die KI zurück und gibt zu, dass alles erfunden war.
Ich kenne mich, aber jemand anderes, potenzieller AG vielleicht, nicht und glaubt der KI.
Awet Tesfaiesus, MdB
Als Antwort auf Morsus Apri R.I.P. Natenom🕯️🖤 • • •@morsuapri das ist schon schlimm .
Aber mehrfach wurde ich im Gerichtssaal für die Dolmetscherin gehalten. Obwohl ich dort in Robbe (!) saß. Einmal wollte der Richter mir ein Ordnungsgeld aufbrummen wegen Nichterscheinens (Amtsgericht München!). Ich möchte ja glauben, er hat meine Identität auch falsch zugeordnet.
Morsus Apri R.I.P. Natenom🕯️🖤
Als Antwort auf Awet Tesfaiesus, MdB • • •Natürlich könnte die Person selbst einige Punkte der Darstellung der KI nachprüfen, aber da bin ich eher misstrauisch.
Eine Anfrage an eine KI KANN einen Hinweis in die richtige Richtung geben, muss aber nachgeprüft (Fachbücher, Zeitschriften,...) werden.
NeussWave
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Awet Tesfaiesus, MdB • • •Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchen (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.
t3n.de/news/polizei-ki-schreib…
Polizei-KI schreibt Einsatzbericht – und verwandelt Beamten in einen Frosch | t3n
Noëlle Bölling (t3n Magazin)The mad Präsident
Als Antwort auf Awet Tesfaiesus, MdB • • •Alle machen Fehler. Das zu erkennen ist der erste Schritt zur Intelligenz.
Menschen, die behaupten keine Fehler zu machen, sind "Die Dummen"!
Der Staatsapparat hat besondere Rechte bei der #Gewaltausübung, daraus resultiert auch eine besondere #Sorgfaltspflicht!
zdf.de/dokus/ganz-normale-maen…
dbb.de/lexikon/themenartikel/r…
Sollte es belegbare Zweifel an der Sorgfaltspflicht der Beamten geben, hat der Bürger ein #Widerstandsrecht.
#Notwehr
gesetze-im-internet.de/gg/art_…
Ganz normale Männer
ZDFjanananena
Als Antwort auf Awet Tesfaiesus, MdB • • •sein dass sie irgendwer liest und dann merkt wenn scheiße drinsteht? wenn ich die mit chatbots erstelle (ich weigere mich das intelligenz zu nennen) kann ich sie lieber weglassen
josef
Als Antwort auf Awet Tesfaiesus, MdB • • •Konstantin Weddige
Als Antwort auf Awet Tesfaiesus, MdB • • •ich glaube der große Unterschied zwischen menschlichen Fehlern und LLMs ist nicht einfach quantitativ, sondern grundsätzlicher:
Bei menschlichen Fehlern werden wir unseren Ansprüchen nicht gerecht, bei LLMs haben wir unsere Ansprüche aufgegeben. Das ist wie der Lehrer, über den man witzelt, dass er die Noten auswürfelt, und dem, der es wirklich tut.
Es geht weniger darum, ob LLMs mehr oder weniger Fehler machen als Menschen, sondern um die Option daran jemals etwas zu ändern.
Awet Tesfaiesus, MdB
Als Antwort auf Konstantin Weddige • • •BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Awet Tesfaiesus, MdB • • •RE: mastodon.social/@BrennpunktUA/…
@AwetTesfaiesus GuMo 🙃 Ich schrieb gestern eigentlich, dass es darauf ankommt, womit man AIs trainiert. Und natürlich auch, wem diese gehorchen.
Denke schon, dass gewissenhafte redaktionelle Prüfung nochmal eine ganz andere Datenlage ist, als einfach das gesamte Netz abgrasen und damit die AI füttern.
Aber klar, es kommt obendrein auch noch darauf an, wie man als Nutzer*in egal welches Werkzeug verwendet, Ergebnisse interpretiert und dann selbst nochmal verifiziert 🤷🏻♂️
@marcuwekling
RE: mastodon.social/@BrennpunktUA/…
@AwetTesfaiesus GuMo 🙃 Ich schrieb gestern eigentlich, dass es darauf ankommt, womit man AIs trainiert. Und natürlich auch, wem diese gehorchen.
Denke schon, dass gewissenhafte redaktionelle Prüfung nochmal eine ganz andere Datenlage ist, als einfach das gesamte Netz abgrasen und damit die AI füttern.
Aber klar, es kommt obendrein auch noch darauf an, wie man als Nutzer*in egal welches Werkzeug verwendet, Ergebnisse interpretiert und dann selbst nochmal verifiziert 🤷🏻♂️
@marcuwekling
BrennpunktUA debunked 🕵🏻♀️
2026-01-05 12:47:15
Awet Tesfaiesus, MdB
Als Antwort auf BrennpunktUA debunked 🕵🏻♀️ • • •@BrennpunktUA
Überhöhen wir uns Menschen da nicht evtl.? "Gewissenhaftes Lektorieren" ist auch nicht die Stärke von Menschen.
Juristen belegen ihre Aussagen (teils wort-weise) mit Fundstellen. Es war schon immer ein Running Gag im Jura-Studium, diese Fundstellen nachzuschlagen und festzustellen, dass das vermeintlich zitierte da überhaupt nicht steht. Gleichwohl wird die Fundstelle brav von einem Gericht nach dem nächsten übernommen. Oft wird nicht geprüft.
BrennpunktUA debunked 🕵🏻♀️
Als Antwort auf Awet Tesfaiesus, MdB • • •nicht, wenn man nicht die Wahl hat. Im echten Leben hat man das und muss sich nicht mit der BILD oder dem Durchschnitt abfinden 🙃
@marcuwekling
lothar
Als Antwort auf Awet Tesfaiesus, MdB • • •Diesen Prozess könnte man signifikant durch den Einsatz von ... "KI" ... verbessern. Also nicht einfach einen Chatbot fragen, sondern richtig, Vektor-DB mit den Inhalten, exakte Scopes und dediziertes, (nach-) trainiertes Netz, meinetwegen noch ein LLM zum nett Aufbereiten der Antworten.
@BrennpunktUA @marcuwekling
Awet Tesfaiesus, MdB
Als Antwort auf lothar • • •Awet Tesfaiesus, MdB
Unbekannter Ursprungsbeitrag • • •@sascha
Aber: ähnliche Anekdoten kann ich Dir von Menschen erzählen.
Da sehen mich die Leute in einer Kirche, hören, dass ich Gemeindemitglied bin, ... und sagen mir anschließend: Toll, dass Sie als Muslima zu unserem Gottesdienst kommen.
🤷♀️
Oliver Drotbohm
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Oliver Drotbohm • • •@odrotbohm
Ad extremum: Wenn das Amt die Weisung ausgibt, alle Entscheide falsch ergehen zu lassen (so häufig im Migrationsrecht, aber auch im Steuerrecht), ist diese Entscheidung immerhin "Verlässlich", oder?
Halt "verlässlich falsch", aber verlässlich.
Oliver Drotbohm
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Oliver Drotbohm • • •Das empfinde ich auch so, aber: warum nehmen wir hin, dass eine menschliche Struktur mit krassen Fehlerquoten entscheidet?
Oliver Drotbohm
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Oliver Drotbohm • • •Verstehe ich richtig: "Wenn Palantir.AI das Sozialamt betreibt, wäre sicher nichts gewonnen"?
Oliver Drotbohm
Als Antwort auf Awet Tesfaiesus, MdB • • •Oliver Drotbohm
Als Antwort auf Oliver Drotbohm • • •Awet Tesfaiesus, MdB
Als Antwort auf Oliver Drotbohm • • •@odrotbohm
Halte ich überhaupt nicht für schlüssig. Ein Beispiel:
Die Beschränkung des Familiennachzugs für syr. Geflüchtet war in allen Fällen rechtlich falsch. Sie war aber politisch vorgegeben.
Quasi alle Klagen dagegen waren erfolgreich.
Aber nur etwa 30% haben überhaupt geklagt. Heißt: 70% haben es hingenommen. Gerichte trotzdem abgesoffen.
Ein LLM hätte das m.E. mit großer Wahrscheinlichkeit weniger falsch gehandhabt.
Oliver Drotbohm
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Oliver Drotbohm • • •@odrotbohm
"ausschließen" ist ein absoluter Begriff.
Aber: wenn Deine Fehlerquote bei den Leistungsbescheiden bei 50% liegt (und die Bearbeitungszeit bei > 3 Monaten), dann scheint es mir berechtigt zu fragen:
Wäre eine Fehlerquote on 20% bei einer Bearbeitungsdauer von 30 Minuten nicht das bessere System?
Oliver Drotbohm
Als Antwort auf Awet Tesfaiesus, MdB • • •Saupreiss #Präparat500 🗽
Als Antwort auf Awet Tesfaiesus, MdB • • •Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:
1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen.
@odrotbohm @marcuwekling
Awet Tesfaiesus, MdB
Als Antwort auf Saupreiss #Präparat500 🗽 • • •@Saupreiss @odrotbohm
Aber das ist halt in vielen Bereichen die Realität. Schau dir nur mal die Nichtanwendungserlasse an de.wikipedia.org/wiki/Nichtanw…
Oder, nimm die Hartz4-Bescheide: 50+% falsch. Nicht-intendiert.
Weisung an die Finanzverwaltung, ein Urteil des Bundesfinanzhofs nicht über den darin entschiedenen Einzelfall hinaus anzuwenden
Autoren der Wikimedia-Projekte (Wikimedia Foundation, Inc.)Saupreiss #Präparat500 🗽
Als Antwort auf Awet Tesfaiesus, MdB • • •Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei…
@odrotbohm @marcuwekling
Saupreiss #Präparat500 🗽
Als Antwort auf Saupreiss #Präparat500 🗽 • • •2/2 …dabei referenzieren sie sich mit zunehmender Menge auch noch selbst und trainieren sich an gemachten Fehlern.
Wenn ich will, phantasiert mir das Ding einige hundert Seiten Begründung mit, die zwar Bullshit ist, aber jede Bescheidprüfung prohibitiv teuer macht…
Awet Tesfaiesus, MdB
Als Antwort auf Saupreiss #Präparat500 🗽 • • •Saupreiss #Präparat500 🗽
Als Antwort auf Awet Tesfaiesus, MdB • • •Früher™ wäre recht wenig Werbung für blaue Tabletten in deinem Briefkasten gelandet: Der Ertrag hätte die hohen Kosten nicht aufgefangen. Mit der E-Mail kam es bekanntlich anders; Kosten der Abwehr derartiger Produktinformation übersteigt regelmäßig jene ordnungsgemäßer Lieferungen.
Ähnlich verhält sich das mit dem Lernen. Natürlich ist ein Schlüter keine sakrosankte Bibel. Aber er bildet einen gewissen Konsens ab. Man kann viele Schlüters mit wenig Aufwand machen…
Gormfull
Als Antwort auf Awet Tesfaiesus, MdB • • •Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.
Awet Tesfaiesus, MdB
Als Antwort auf Gormfull • • •Gormfull
Als Antwort auf Awet Tesfaiesus, MdB • • •Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.
Gormfull
Als Antwort auf Awet Tesfaiesus, MdB • • •Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.
Awet Tesfaiesus, MdB
Als Antwort auf Gormfull • • •Gormfull
Als Antwort auf Awet Tesfaiesus, MdB • • •@odrotbohm
Sicher bin ich mir offensichtlich auch nicht, sonst hätte ich ja nicht meiner “all-positive” Aussage selbst widersprochen
Ein systematischer Fehler, den die KI wahrscheinlich nicht machen würde ist vor dem Mittagessen negativere Bescheide auszustellen, als kurz nach dem Frühstück.
Beschrieben in diesem auch sonst lesenswerten Buch über fehlerhafte menschliche Heuristiken.
genialokal.de/Produkt/Daniel-K…
Awet Tesfaiesus, MdB
Als Antwort auf Gormfull • • •Gormfull
Als Antwort auf Awet Tesfaiesus, MdB • • •Was eine richtige Entscheidung ist, ist ja irgendwie auch Verhandlungssache. Und da ist es dann schwer in ein LLM reinzuschauen. Es wird dir einen Text generieren, warum es eine Entscheidung getroffen hat, aber dieser Text wird nicht der Begründung entsprechen, warum es die Entscheidung getroffen hat. Die wäre nämlich schlicht, weil sie in einem 100000 dimensionalen Vektorraum “nahe lag”.
Awet Tesfaiesus, MdB
Als Antwort auf Gormfull • • •@Gormfull @odrotbohm ich erinnere mich dunkel an eine (für meine profession wenig vorteilhafte) Dissertation, die (nach meiner Erinnerung) die Rechtspraxis kaum anders darstellte. Ich denke es könnte Somek, Rechtliches Wissen, gewesen sein :
suhrkamp.de/buch/alexander-som…
Rechtliches Wissen. Buch von Alexander Somek (Suhrkamp Verlag)
Suhrkamp Verlag GmbHGormfull
Als Antwort auf Awet Tesfaiesus, MdB • • •Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.
Reinald Kirchner
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Reinald Kirchner • • •Reinald Kirchner
Als Antwort auf Awet Tesfaiesus, MdB • • •Anpa
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Unbekannter Ursprungsbeitrag • • •Andreas Wagner
Als Antwort auf Awet Tesfaiesus, MdB • • •Das ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.
Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.
Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.
... mehr anzeigenDas ist interessant. Man weiß ja, dass ausgerechnet die Anthropomorphisierung - neben der vermuteten "Intelligenz" eines so teuren Systems - zur übermäßigen Vertrauensseligkeit ggü KI beiträgt. Einer der zentralen Aspekte dabei ist das eloquente und konfidente "Auftreten", welches man in KI-Ausgaben sieht. Demgegenüber bringt jede:r menschliche Gesprächspartner:in mit der eigenen Menschlichkeit/Positionalität/Unvollkommenheit immer schon Anlass zum Zweifel mit in die Interaktion.
Ich bin also noch nicht überzeugt, dass wir KI ggü tatsächlich kritischer als Menschen ggü sind. Ich glaube, Laien neigen zu Vertrauen in konfidentes, eloquentes Auftreten - wie es in den Textsorten begegnet, die Du nennst - gleichermaßen.
Spannend finde ich die (KI-unabhängigen) Fragen, ob es erstens eine empirisch höhere Wahrscheinlichkeit der tatsächlichen Unwahrheit eloquenter Aussagen und zweitens eine mit der Ausbildung zur Jurist:in eingeübte Immunität ggü Eloquenz und Konfidenz gibt.
Awet Tesfaiesus, MdB
Als Antwort auf Andreas Wagner • • •@anwagnerdreas
Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.
Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:
-Wappen
-Roben
-Gerichtssäle
-Urteilsstil
Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.
Matthias Krämer
Als Antwort auf Awet Tesfaiesus, MdB • • •Ich denke, wenn wir die Aussagen von Menschen kritisch reflektieren (was Journalisten, Juristen u.a. beruflich tun sollten), nutzen wir unser Bild von deren "Positionalität" zur Frage nach ihrer möglichen Interessiertheit in der Sache.
KI hebelt dies aber aus, sie hat das nicht, sie wirkt fälschlich neutral.
Gerichte haben instit.Interessen, etwa Fälle erledigen, oder nicht von höheren Gerichten korrigiert werden.
Andreas Wagner
Als Antwort auf Awet Tesfaiesus, MdB • • •Tatsächlich habe ich vielleicht den Mund etwas voll genommen: Ich weiß von Untersuchungen über die vertrauenerweckende Wirkung von Eloquenz und konfidentem Auftreten (und Geschlechterrollen usw.), Merkmalen also, die den Chatsystemen effektiv antrainiert werden (und sei es weil die Humans in the Loop im RLHF das gut finden). Diese Studien stammen allerdings zumeist noch aus der Zeit *vor* den erfolgreichen Chatsystemen, sie untersuchen es also nicht anhand solcher Systeme...
Ich weiß noch von keinen Studien, die die "deference" gegenüber einem identischen Auftreten hinsichtlich dessen vergleichen, ob es von einem Computer oder einer natürlichen Person (mit variierenden Rollen und Attributen), oder vielleicht auch einem journalistischen Medium entgegen tritt. Müsste man mal machen...
Oder weiß jemand was in der Richtung?
Awet Tesfaiesus, MdB
Als Antwort auf Andreas Wagner • • •1x1 der Zeugenaussage:
"Frau Richterin, ich bin mir ganz sicher, dass sie das war. Da habe ich keinen Zweifel. Das weiß ich deshalb noch so genau, weil zur gleichen Zeit..."
In meiner Ausbildung hieß es "lügt wie gedruckt" kommt nicht von ungefähr.
Andreas Wagner
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Andreas Wagner • • •@anwagnerdreas
Weiiiiiiiss ich nicht! Weiiiiiiiiss ich nicht!
Sollten nur Volljuristen LLMs benutzen dürfen? Vielleicht! Würde die Welt dadurch besser? Ich habe erhebliche Zweifel!
Johannes Link
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Johannes Link • • •Johannes Link
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Johannes Link • • •@jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?
Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?
Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".
Reinald Kirchner
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Reinald Kirchner • • •@Reinald @jlink die sind alle geschult.
Sie sind aber auch Menschen.
Und für viele Menschen gilt: das Leben ist eine Glockenkurve! Die meisten Leute sind so wie die meisten Leute eben sind!
Awet Tesfaiesus, MdB
Als Antwort auf Reinald Kirchner • • •@Reinald @jlink
Wollt ihr noch ein paar "Alltagswissen" aus dem Jurist:innen-Leben:
1. Ob ein männlicher Zeuge lügt, erkannte ein Ausbilder (Richter mit Leitungsfunktion) meiner besseren Hälfte u.A. an deren Unterarmen! (tätowiert=Knastvogel=Lügner)
2. Ein:e Polizist:in verriet mir: ob man einen Straftäter vor sich hat, erkennt man (natürlich) an den Schuhen. (Betrüger haben billiges Schuhwerk)
Glaubt nicht, dass die Welt vor lauter Menschen nicht sei, wie sie ist.
Johannes Link
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Johannes Link • • •Max L.
Als Antwort auf Awet Tesfaiesus, MdB • • •Der Unterschied zu menschlichen Lernen liegt darin, dass ein Mensch mit Konsequenzen zu rechnen hat (zB. soziale Ausgrenzung) wenn er zu häufig Fehler macht, die gegen gesellschaftliche Normen und Gesetze verstoßen.(Umgangssprachlich würde ich das als "Gruppenzwang" bezeichnen)
Die Fähigkeit so etwas zu empfinden (oder überhaupt irgendetwas zu empfinden) hat eine "KI" nicht. Fehler dürfen also vom Design aus nicht passieren weil es nicht geht sie im nachhinein zu entlernen.
Awet Tesfaiesus, MdB
Als Antwort auf Max L. • • •Max L.
Als Antwort auf Awet Tesfaiesus, MdB • • •Thierna
Als Antwort auf Awet Tesfaiesus, MdB • • •yepp, Bildung ist problematisch. Verwaltung auch.
Ermessensspielraum bei einer Bank, kenne ich nur von vermögenden Menschen, die persönlichen Kontakt zum Bankberater haben.
Menschen, die Schulentwicklung machen, reden darüber schon lange. z.b. im #FediLZ gibts da bestimmt mehr.
Aber das kickt halt nicht so in der Presse. und irgendwie läuft da zuviel getrennt und parallel.
SusanneBonn
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf SusanneBonn • • •SusanneBonn
Als Antwort auf Awet Tesfaiesus, MdB • • •DaBo
Als Antwort auf Awet Tesfaiesus, MdB • • •Für mich ist der Unterschied zwischen Fehlern von Menschen und Fehlern von Programmen die Möglichkeit, Korrektur vom Schreiberling verlangen zu können. Es muss für falsche Tatsachenbehautungen Haftung geben.
Wenn ein Polizist in seinem Bericht Müll produziert, kann er identifiziert werden und den Kram korrigieren. Und muss, bei vorsätzlichen Fehlern mit Konsequenzen rechnen. (Ob das in der Realität wirklich passiert lasse ich erstmal außer acht - es gibt wenigstens die rechtliche Möglichkeit)
... mehr anzeigenBei der KI gibt es keine Möglichkeit für Konsequenzen. Wie sollen die aussehen? Abschaltung für ein par Stunden? Wie soll sie KI denn denn lernen, dass Lügen falsch ist, so ganz ohne Bewusstsein? Wer soll sie denn tragen? Oder soll die Haftung vonder Herstellerfirma, die sich schon beim Füttern ihres Produktes um keine Gesetze geschehrt hat, und damit durchkommt, übernommen werden?
Oder doch wieder von der Person, deren Arbeit die KI machen sollte?
Für mich ist der Unterschied zwischen Fehlern von Menschen und Fehlern von Programmen die Möglichkeit, Korrektur vom Schreiberling verlangen zu können. Es muss für falsche Tatsachenbehautungen Haftung geben.
Wenn ein Polizist in seinem Bericht Müll produziert, kann er identifiziert werden und den Kram korrigieren. Und muss, bei vorsätzlichen Fehlern mit Konsequenzen rechnen. (Ob das in der Realität wirklich passiert lasse ich erstmal außer acht - es gibt wenigstens die rechtliche Möglichkeit)
Bei der KI gibt es keine Möglichkeit für Konsequenzen. Wie sollen die aussehen? Abschaltung für ein par Stunden? Wie soll sie KI denn denn lernen, dass Lügen falsch ist, so ganz ohne Bewusstsein? Wer soll sie denn tragen? Oder soll die Haftung vonder Herstellerfirma, die sich schon beim Füttern ihres Produktes um keine Gesetze geschehrt hat, und damit durchkommt, übernommen werden?
Oder doch wieder von der Person, deren Arbeit die KI machen sollte?
Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Eine Maschine, die mir eine korrekte Information liefern soll, sollte eine niedrigere Fehlerquote haben - ich warte ja gerade die Rechercheleistung, die ich sonst selbst erbringen muss. Gleichzeitig hat Marc-Uwe gestern einen diesbezüglich wichtigen Aspekt angesprochen: Die KI-Texte klingen oft so wahrscheinlich, obwohl sie falsch sind. Sie wecken Vertrauen, das nicht gerechtfertigt ist.
Und wer ist generell bei menschlichen Aussagen weniger skeptisch?
1/x
Der zuversichtliche Daniel
Als Antwort auf Der zuversichtliche Daniel • • •Man vertraut zwar einem #Experten in seinem Gebiet mehr, einem #Journalist oder #Richter vielleicht auch. Aber wenn #Dieseldieter mit hocheffiziente Verbrenner erklärt, dann gehe ich in die Debatte.
Kann man übrigens mit der KI nicht wirklich.
Deine beiden Beispiel sind für mich zudem nicht nachvollziehbar:
1. VA können gerichtlich überprüft werden. Die Skepsis gegen die Richtigkeit ist also bereits im System verankert. Woher stammen Deine %-Angaben...
2/x
Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •wie ich bereits schrieb: die Prozentangaben stammen aus der Ausbildung. Viele davon kannst du googeln.
Die Angaben zu den BAMF-bescheiden schöpfe ich aus eigener Anschauung
Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Ich habe die gleiche Ausbildung genossen, solche Zahlen wurden mir nie genannt 😉
Vor allem aber muss es da ja einen Maßstab geben. Meinst Du weltweit, deutschlandweit, Steuerbescheide, Hartz IV-Bescheide, Asyl-Bescheide, Baugenehmigungen usw.?
Du siehst ich bin an dieser Stelle skeptisch mit Dir und das obwohl Du bei mir anhand vieler Deiner sonstigen Posts durchaus Vertrauen genießt.
Der zuversichtliche Daniel
Als Antwort auf Der zuversichtliche Daniel • • •eigentlich? Und wieso nennst Du eine so große Spanne? Und ist darin berücksichtigt, dass nicht jeder Fehler sich im Ergebnis auswirkt und was ist mit falsch positiven Bescheiden, sind die gleich schlimm wie negative?
2. Falsche Atlanten basieren in der Regel vermutlich eher auf Überalterung und nicht auf einem menschlichen Fehler bei der Erstellung. Das ist also gar nicht vergleichbar mit dem Problem, dass eine KI, die vorgibt aktuell zu sein, falsche...
3/x
Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Der zuversichtliche Daniel
Als Antwort auf Der zuversichtliche Daniel • • •Ergebnisse auswirft.
Zuletzt noch eine Frage dazu, welche Schlussfolgerung Du aus dem Vergleich ziehst:
Für mich ist klar, dass Automatisierung nur dann Sinn ergibt, wenn dadurch die Fehlerzahl sinkt. Das scheint mir aber gerade nicht der Fall. Vielmehr sinkt nur die Überprüf- und Feststellbarkeit. Dann doch lieber falsche, aber nachvollziehbare menschliche Entscheidungen, oder?
Dann können die RA, die vor allem streiten um Geld zu verdienen, durch...
4/x
Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •@Der_zuversichtliche_Daniel schau. Bei SGB geht es um krasse Not.
Bei vergleichbar schlechten Ergebnissen scheint es mir plausibel zu sagen: dann lieber schnellere schlechte Entscheidungen der Behörden, dann ist man im Zweifel schneller bei Gericht.
Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •@Der_zuversichtliche_Daniel da überschätzt du mE die Qualität von Verwaltung.
(1) Platzverweis schon mal prüfbar begründet bekommen? (Vermutlich nicht, weil sofort Vollzug).
(2) Hartz4-Bescheid schon mal begründet bekommen?
(3) Parkknölkchen schon mal prüfbar „begründet“ bekommen?
(4) schon mal nen Steuerbescheid begründet bekommen? (Selten)
Das ist allenfalls floskelhaftes Handeln. Das mach das LLM jedenfalls auch nicht schlechter.
Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Platzverweise habe ich noch nie betreut.
Parkknöllchen sind null komplex und faktisch durch den Verstoß selbst immer begründet.
Hartz IV-Bescheide kenne ich nur wenige.
#Steuer|bescheide sind indes ( @Obermueller_und_Partner ) unser Tageswerk. Diese entsprechen entweder der Erklärung, dann hab ich die Begründung oder Erläutern die Abweichung. Bei den wenigen Ausnahmen, bekommst DU die Erläuterung bei Nachfrage.
Das kann ein LLM nicht!
Awet Tesfaiesus, MdB
Als Antwort auf Der zuversichtliche Daniel • • •@Der_zuversichtliche_Daniel
Ich hatte einen Kollegen im Referendariat der anschließend Richter wurde. Er pflegte zu sagen, „im Gesetz steht, dass ich eine Entscheidung begründen muss, da steht nicht, dass ich sie gut begründen muss.“
Ich sage nicht, in welchem Ministerium er gelandet ist.
Der zuversichtliche Daniel
Als Antwort auf Awet Tesfaiesus, MdB • • •Ich habe auch schon schlechte #Richter getroffen, aber auch viele gute, die sehr viel Zeit und Mühe auf die Begründung gerichtet haben.
Da ist Dein Beispiel also lediglich anekdotische Evidenz und nicht als Argument tauglich!
Expertenkommision Cyberunfall
Als Antwort auf Awet Tesfaiesus, MdB • • •Funktioniert halt oft nicht.
Persönliches Erleben: Lehrkräfte auf Falsches angesprochen reagieren im überwiegend sehr pikiert und aggressiv. #Fehlerkultur halt.
Awet Tesfaiesus, MdB
Als Antwort auf Expertenkommision Cyberunfall • • •Expertenkommision Cyberunfall
Als Antwort auf Awet Tesfaiesus, MdB • • •Aber die grundsätzliche Frage dabei ist ja immer danach, was wahr ist und was nicht und wer das definiert.
dasgrueneblatt
Als Antwort auf Awet Tesfaiesus, MdB • • •Meine Schulatlanten war auch falsch. Aber das ist eine andere Art von Fehler. Die Atlanten waren veraltet. Sie zeigten korrekte Länder von einigen Jahren davor, und es war erklärbar, warum. Im Vergleich mit Schulatlanten jüngerer und älterer Kinder ließ sich die Veränderung über die Zeit nachvollziehen. Ich kann auch jetzt einen Atlas aufschlagen und anhand der Länder erkennen, aus welcher Zeit er ist (und aus welchem Land).
Ein LLM-generierter Atlas wird im Gegensatz dazu bei jedem Aufruf andere Fehler anzeigen. Vielleicht lässt sich erkennen, woran ein Fehler liegt, vielleicht auch nicht. Die Fehler sind an unerwarteten Stellen (ich kann nicht schauen, ob Sowjetunion oder nicht, sondern es könnten ja auch Küstenlinien falsch sein, oder Namen richtig aber vertauscht), aber gleichzeitig auch irgendwie "plausibel", weil sie ja von den Wahrscheinlichkeiten im Modell gestützt werden.
Da sind zwei fundamental andere Typen von "Fehler", und der zweite ist viel gefährlicher.
@
... mehr anzeigenMeine Schulatlanten war auch falsch. Aber das ist eine andere Art von Fehler. Die Atlanten waren veraltet. Sie zeigten korrekte Länder von einigen Jahren davor, und es war erklärbar, warum. Im Vergleich mit Schulatlanten jüngerer und älterer Kinder ließ sich die Veränderung über die Zeit nachvollziehen. Ich kann auch jetzt einen Atlas aufschlagen und anhand der Länder erkennen, aus welcher Zeit er ist (und aus welchem Land).
Ein LLM-generierter Atlas wird im Gegensatz dazu bei jedem Aufruf andere Fehler anzeigen. Vielleicht lässt sich erkennen, woran ein Fehler liegt, vielleicht auch nicht. Die Fehler sind an unerwarteten Stellen (ich kann nicht schauen, ob Sowjetunion oder nicht, sondern es könnten ja auch Küstenlinien falsch sein, oder Namen richtig aber vertauscht), aber gleichzeitig auch irgendwie "plausibel", weil sie ja von den Wahrscheinlichkeiten im Modell gestützt werden.
Da sind zwei fundamental andere Typen von "Fehler", und der zweite ist viel gefährlicher.
@marcuwekling
Awet Tesfaiesus, MdB
Als Antwort auf dasgrueneblatt • • •@dasgrueneblatt
mastodon.social/@AwetTesfaiesu…
Awet Tesfaiesus, MdB
2026-01-06 11:50:49