In den Kommentaren lass ich gestern sinngemäß: wen wundert es, alle wissen, dass #LLMs ständig Fehler machen. @marcuwekling sagte am Montag bei der Lesung Ähnliches.

Dazu:
1️⃣In der juristischen Ausbildung lernst du, dass 50-70% der Verwaltungsakt falsch sind. Default: falsch!
2️⃣Dazu: in meiner Schulzeit waren Atlanten/Karten immer falsch (DDR drin, teils Saarland draußen, Jugoslawien komplett). Ich habe nicht gehört, dass über Schulen ähnlich gesprochen wird, wie über LLMs. #ki

teilten dies erneut

Als Antwort auf Awet Tesfaiesus, MdB

3️⃣40%-50% der Internetseiten sind jur. fehlerhaft.

Bei aller offensichtlichen Gefährlichkeit gerade für die Kreativbranche: Menschen machen mE ständig (!) Fehler!

Ich frage mich, ob wir bei #KI zu oft/leicht mit zweierlei Maß für Richtigkeit messen, wenn es um Fehlerhaftigkeit geht.

Ich frage mich auch ehrlich, welche Mechanismen bei uns am Werk sind. Welches Maß legen wir hier an und warum?

Sind wir evtl (zu sehr) daran gewöhnt, dass Algorithmen zu zuverlässig sind?

#KI
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

Ja, das ist in meinen Augen der komplett falsche Ansatz, der noch dazu die "Hirngespinnste" von #KI herunterspielt.
Es fängt schon beim Begriff an, der uns vorhandene Intelligenz vorgaukelt. Weder diese noch Empathie ist wirklich vorhanden. Es werden Inputdaten einfach nur ausgewertet und in Beziehung gesetzt.
Aber wir nehmen die Ergebnisse als verwendbar (und wahr) as is wahr, nutzen sie sogar als Argumentation, gar als Beweis.

Darum sollte KI immer hinterfragt werden.

#KI
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

ich denke nicht, dass ich die Frage missverstehe.

Allein der Vergleich zu menschlichen Ergebnissen zeigt doch schon das Missverständnis in der Frage, denn #KI ist eben nicht menschlich, hat keine eigene Intelligenz. Und gerade deswegen, weil es eben NUR eine Maschine, ein Algorithmus, ein #llm ist, gerade deswegen müssen wir es noch stärker hinterfragen und darauf bestehen, dass Ergebnisse korrekt sind, dort eben keine "menschlichen" Fehler auftauchen.

#KI #llm
Als Antwort auf Ortwin Pinke

@oldperl ich möchte klarstellen: ich frage mich u.A. warum wir menschlichen Aussagen nicht mit derselben Skepsis begegnen, wie der KI und zwar selbst dann nicht, wenn wir wissen, dass die Ergebnisse mit über 50%iger Wahrscheinlichkeit falsch sind (Jobcenterbescheid?). Wieso ist die falsche „Map of Europe“ ein Anlass zur Empörung, die 10tausend falschen Karten in unseren Schulen aber nicht?
Als Antwort auf Awet Tesfaiesus, MdB

@oldperl mir ist noch ein anderer Gedanke (Fortführung der Bemerkung zu Roben, Wappen etc) wichtig: bei etablierten menschlichen Institutionen wie Rechtssystem, Verwaltung oder Wissenschaft haben wir als Gesellschaft über die Zeit Vertrauen aufgebaut und akzeptieren, dass diese Systeme - wie fehler- und biasanfällig im Einzelfall auch immer - Entscheidungen treffen, die wir sinnvoll finden (und als zusätzliche Legitimation die intern wie extern korrigiert werden können). LLMs versuchen, von dieser soziokulturellen Etabliertheit zu profitieren (Eloquenz, Sykophantismus), werden aber als parasitäre Praxis mit Big-Tech-Hintergrund identifiziert und kritisch gesehen. Vergleicht man nur eine Richterin mit einem LLM, wird diese historische bzw soziokulturelle Einbettung ausgeblendet.
Als Antwort auf Awet Tesfaiesus, MdB

@oldperl Ich denke, dass in der Diskussion die Differenzierung zwischen Menschen und Fachgebieten zu kurz kommt. Ich habe einen Verwandten, den ich gerne zum Thema Automobil befrage, bei dem aber die meisten Aussagen zu Politikern oder Politik auf Falschinformationen beruhen. Ich empfinde es auch nicht so, dass grundsätzlich keine Skepsis an menschlichen Aussagen vorhanden ist. Im Gegenteil kann zu viel Skepsis sogar zu zwischenmenschlichen Problemen führen.
Als Antwort auf Awet Tesfaiesus, MdB

Vertrauen ist ein sehenden Auges eingegangenes Risiko zur Komplexitätsreduzierung.

Ganz ohne geht es meiner Meinung nach nicht.
Deshalb sollten Prozesse Prüfschleifen haben, spätestens dann, wenn sie zu irreversiblen Konsequenzen führen ( zB Abbruch eines Hauses).
Je größer der Aufwand, die Verbreitung und das Ansehen einer Quelle (zB Schulbücher), desto mehr Qualitätssicherungsmaßnahmen erwarte ich. Alleine schon deswegen, weil die -> Informationsdarbietung <- deren Existenzgrundlage ist. Es ist ihre primäre Aufgabe.

Früher bedeutete ein Fehler in einer solchen Drucksache einen Reputationsverlust und war damit geschäftsschädigend.

@oldperl

Als Antwort auf Awet Tesfaiesus, MdB

Gymnasium während der 2000er.
Wir hatten nen Diercke Atlas, aber wenig länderspezifisch damit gearbeitet. Eher mit den Klimakarten und den Vegetationszonen etc.
Später hatte ich geography wg. bilingualem Unterricht, dafür gab es kein klassisches Lehrbuch.

Ich erinnere mich nur, dass die Erdkunde-Leute irgendwas zu Fruchtfolgen lernen mussten, so als gäbe es noch Kartoffelferien.
An falsche Landkarten erinnere ich mich nicht.
In der Zeit war aber auch nicht so viel Umbruch in lehrplanrelevanten Regionen. Könnte also auch ein "Jahrzehnt"-assoziiertes Problem sein.

@oldperl

Als Antwort auf Ortwin Pinke

Mitglieder des Bundestages sind (sollten sein) Vertreter des Volkes, und sollen dort nach bestem (eigenen) Gewissen Entscheidungen für eben dieses Volk treffen.

Doch geschieht das wirklich noch. Ich denke nicht. Wir werden inzwischen von Einzelnen und Partei-Vorgaben regiert, und wer sich dem Fraktionszwang nicht unterwirft, ist schnell raus.

Und dann kommt noch eine "lügende" Maschine daher, gesteuert von Oligarchen, und wir sollen dort auch weg oder nicht so genau schauen.

Als Antwort auf Awet Tesfaiesus, MdB

nein, ich meine, und wünsche mir, wieder mehr Ehrlichkeit, verbunden mit mehr Gewissen.

Es geht nicht um "mehr Bullshit", es geht um möglichst "kein Bullshit"

Wir haben so viele Baustellen, sowohl im Land als in der Welt.

Klima, Sozialstaat, Europa - so viele Baustellen, und nur Schönredner:innen und Populist:innen am Ruder, oder eben Wirtschafts-gesteuerte Blackrock-Jünger.

Räumt endlich den @bundestag auf! Was macht ein Steuerverschwender wie #Spahn noch im Amt?

Als Antwort auf BrennpunktUA debunked 🕵🏻‍♀️

@BrennpunktUA

hm, was meint denn "nachbilden"? Letztlich ist eine Rechen-/und Rechner-Leistung immer ("nur") eine Rechenleistung und schlicht etwas anderes als die Leistung eines menchlichen Gehirns. Die Verarbeitungsprozesse eines Körpers mit entsprechenden Schnittstellen zur Umwelt können nicht "nachgebildet" werden. Man sollte aufhören, diese schrägen Narrative von sog. Künstlicher "Intelligenz" usw. mitzutragen.

@oldperl @AwetTesfaiesus

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Ailurot

@Ottilie_Katz
Auch hier widerspreche ich.

Captain Kirk flog vor Jahrzehnten durch das Weltall und funkte über seinen aufklappbaren Kommunikator, "Scotty, beam mich rauf!"
Auch damals habe ich gehört, so was wie bei Star Trek wird es wohl nie geben.

Heute haben wir Smartphones, die ein vielfaches von dem, was ein einfacher Kommunikator kann, können.

Daher will und werde ich nie irgendetwas ausschließen, und spätestens mit Quantenrechnern wird noch mehr möglich.

@BrennpunktUA @AwetTesfaiesus

Als Antwort auf Awet Tesfaiesus, MdB

Nun ja, wir wollen ja nicht päpstlicher sein als der Papst. 😏

"The original film series has the wording "Scotty, beam me up" in Star Trek IV: The Voyage Home and "Beam them out of there, Scotty" in Star Trek Generations. "

Zumindest besteht bei mir die Möglichkeit, es im Original gehört haben zu können. 😎

@Ottilie_Katz @BrennpunktUA

Als Antwort auf Awet Tesfaiesus, MdB

Ich möchte mich aber an der Stelle auch einmal für die tolle und vorbildliche Diskussion hier bedanken. Und sollte es Dich im Rahmen Deines Mandates mal nach Unterfranken verschlagen, würde ich mich über ein persönliches Kennenlernen bei einem Tässchen Tee oder Kaffee freuen.

@Ottilie_Katz @BrennpunktUA

Als Antwort auf Awet Tesfaiesus, MdB

Das Weltbild vieler Menschen ist sehr eingeschränkt. Das ist seit tausenden von Jahren dokumentiert. Nimm ein #Buch und behaupte dann zu #wissen was drin steht und viele Menschen werden es einfach #glauben, ohne selbst das Buch zu lesen, andere glauben es auch nicht, aber lesen trotzdem nicht das Buch.
Sie sind nicht an der #Wahrheit interessiert!
psychologie-guide.de/die-dummh…
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

@oldperl
In kurz:

Menschen sind Menschen, manipulierbar fehlerhaft.

Der Brockhaus/Wikipedia war recherhiert und "wahr".

Computer sind/waren Maschinen die etwas deterministisch berechnet haben. Das Ergebnis war quasi "mathematisch richtig" und nachvollziehbar. Man verlässt sich darauf.

LLMs liefern statistisch wahrscheinliche Halluzinationen ohne Verständnis von wahr und falsch. Wir unterstellen aber Intelligenz und nutzen es als Lexikon.

Ist halt schwierig/falsch.

Als Antwort auf Andreas Tengicki

@andreas_tengicki @oldperl Der Kernbegriff ist „ohne Verständnis“ von wahr und falsch.

Bei menschlichen Autor:innen ist im Rahmen ihrer Bildung und kulturellen Einordnung dieses Verständnis da, aber auch deren Wissen um ihr Fehlen. Keine LLM wird je aus Einsicht ein „ich weiß, dass ich nichts weiß“ formulieren.

Und wenn menschliche Autor:innen einen Fakt berichten, der der für sie gültigen Moral widerspricht, können die Lesenden das als Menschen mit ggf. abweichender Moral meist erkennen. Bei den moralfreien LLMs sind die formulierten Fakten absolut, ohne Hinweis auf das ggf. vorurteilsbehaftete Trainingsmaterial.

Als Antwort auf Awet Tesfaiesus, MdB

@Ulan_KA @oldperl

Es geht nicht darum wie wir Menschen bewerten. Da wissen wir meist um die Fehleranfälligkeit.

Weil LLMs aber als Computer als Maschinen die "Wahrheit" oder zumindstens "gute berechnete (neutrale) Ergebnisse" formulieren wahrgenommen werden, ist es so gefährlich (bzw. falsch).

Die Halluzinationsmaschinen sind gut in der Textgenerierung. Wenn man den Text beurteilen kann, kann man es nutzen. Wenn man dem Text glauben muss, oder will wird es gefährlich.

Als Antwort auf Awet Tesfaiesus, MdB

@andreas_tengicki @oldperl Das ist korrekt und liegt daran, dass menschliche Zeugen meist nicht für Zeugen sein ausgebildet und in dem Moment nicht vorbereitet sind.

Soweit sie es sind, sind die Wahrnehmungen und Berichte zu Fakten von menschlichen Zeugen selbst bei hoher Parteilichkeit sehr verlässlich, z.B. Reporter oder Schiedsrichter. Da muss schon sehr gezielt ein falsches Ergebnis angestrebt werden, z.B. bei Variete-Kunst („Zauberer“) oder Falschdarstellung von vorherein beabsichtigt sein, wie z.B. bei Kriegsberichterstattung.

Als Antwort auf Awet Tesfaiesus, MdB

@andreas_tengicki @oldperl Korrekt. Das ist dann auch sehr hilfreich, wenn die bei ihrer eigenen Fortbildung lernen, *wie* unzuverlässig Zeugenaussagen sind.

Diente diese Fortbildung dazu ihnen beizubringen, wie man als Zeuge Informationen sachlich und ohne Bewertung aufnimmt und erkennt, was echte Wahrnehmung und was eigene (fehlerbehaftete) Schlussfolgerung ist, und wie man es unterscheidet, dann hilft ihnen das kaum als Richter, bestenfalls, wenn sie mal selbst vor Gericht als Zeuge auftreten müssen.

Und ja, auch die, die es – z.B. als Journalist oder Schiedsrichter – professionell machen, müssten es lernen und manche schaffen es nie. Ich hab selbst keine journalistische Ausbildung, ich weiß nicht mal, ob das tatsächlich Teil davon ist, obwohl ich es erwarte.

Als Antwort auf Awet Tesfaiesus, MdB

Um beim Beispiel VA zu bleiben: Wenn ein fehlerhafter VA vorliegt, kann man den/die entspr. Sachbearbeiter*in auffordern, diesen zu prüfen. V.a. weil es sich häufig um Flüchtigkeits- und Unaufmerksamkeitsfehler handelt, ist mein Vertrauen darin, dass ein Mensch einen Vorgang überprüft und anschließend richtigstellt, deutlich größer als in eine Überprüfung durch LLMs, die dann neu fabulieren.
@oldperl
Als Antwort auf Awet Tesfaiesus, MdB

LLMs erzeugen plausibel aussehende Texte. Die sind *immer* zufällig gewürfelt, aber ziemlich oft passen sie, weil die statistische Verteilung des Ausgangsmaterials die Wahrscheinlichkeiten vorgibt.

Das ist es was passiert. Das große Problem ist, dass diese Dinger mit viel zu viel Bedeutung aufgeladen werden, von Befürwortern wie von manchen Gegnern.

Mein persönlicher Standpunkt entspricht ungefähr dem Artikel „I am an AI hater“: anthonymoser.github.io/writing…

Anna hat dies geteilt.

Als Antwort auf Awet Tesfaiesus, MdB

Die machen etwas mehr als das.

Anwält*innen können lernen und haben Motivation, Perspektiven und Interpretationen.

Das fehlt alles bei LLMs.

Eine Anwältin kannst du fragen, wie sie zu einem Schluss gekommen ist und sie wird es dir erklären können, mit mehr Substanz als „diese Worte hab ich mal in ähnlicher Reihenfolge irgendwo gesehen“.

LLMs werden wieder Text produzieren, der aussieht, wie andere Antworten auf ähnliche Fragen aus dem Quellmaterial.

Als Antwort auf Awet Tesfaiesus, MdB

also wenn man einem Programm sagt es soll 1 +1 addieren kommt da immer 2 raus. Bei KI nicht. Es gibt viele Dinge die KI Modelle heute einfach nicht können und auch zukünftig nicht können werden. Das ist kein "wir fixen das Problem" Das geht einfach nicht. KI Modelle erfinden Fakten. Das machen selbst Menschen selten und normale Computer nie. Und das ist keine Befürchtung das sieht man schon in der Welt .z.B timesofindia.indiatimes.com/te…
Als Antwort auf Awet Tesfaiesus, MdB

etwas OT, ich weiß, aber bei kritischen Systemen (und Infrastruktur) und überall dort, wo es um Menschenleben geht, kommt noch hinzu, dass nur ein einziger, zuvor unerkannter "Glitch", getriggert durch ein einmaliges Ereignis, sehr großen Schaden auf einmal anrichten könnte... obendrein können Computersysteme grundsätzlich auch gehackt werden, auch eigentlich gut vom Internet abgeschottete, siehe z.B. #stuxnet

Dass Menschen alle zugleich versagen: unwahrscheinlich!

@jabgoe2089

Als Antwort auf Awet Tesfaiesus, MdB

Die Problematik bei KI-basierten Fehlern vs Fehlern anderer Systeme ist das Erkennen und Korrigieren von Fehlern.
Ich arbeite mit solchen Systemen, die am Ende möglichst wenig Fehler aufweisen sollen. KI fällt es schwer mitzuteilen, wann ihre Ergebnisse unsicher sind, wenn deren Grundlagen Zweifel erlauben. Das ist bei anderen Systemen einfacher, weil deren Grundlage leichter ermittelbar sind.
Fehlerarten sind auch nicht gleich. Es gibt lässliche und schwerwiegende.
1/
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Thomas

@coastgnu

Dann haben wir wohl nicht denselben Horizont. Aus einer Akte von mir:

"Die Antragstellerin ist insoweit zur Mitwirkung verpflichtet. Vor diesem Hintergrund ist es schlechterdings nicht nachvollziehbar, warum sich die Antragstellerin angeblich nicht auf eine 300km lange Reise durch das IS-Gebiet begibt, um ihre Geburts- und Diplomurkunde persönlich in Rakka holen. Sie könnte ja auch ihre derzeit in Camp in der Türkei lebende Schwester schicken."

Als Antwort auf Awet Tesfaiesus, MdB

Und ich bin gar nicht grundsätzlich gegen Technik und KI.

Ich finde nur, sie sollte dem Menschen dienen.

Statt selbst fahrende Autos hätte ich lieber eine Spülmaschine, die sich selbst ein- und ausräumt.

Und LLM/KI sollte nicht kreative Aufgaben übernehmen, sondern die Menschen von öden Jobs entlasten, wo es nur um die Anwendung von Regelsätzen geht.
Oder Analyse von richtig großen Datenmengen zB in der Medizin.

Als Antwort auf Chaotica

@Chaotica
Flood the zone with shit?
Auch ein Problem, aber wie Du selbst sagst, braucht die "Wahrheit" viel mehr Ressourcen, weil Lügen leichter produziert werden.
Das eigentliche Problem sehe ich in der Verantwortung. Böswillige Nutzer _wollen_ Lügen produzieren, wenn aber die AI mit x% falschen/fehlerhaften Datensätzen trainiert wurde, werden für alle User fehlerhafte Antworten produziert.
@AwetTesfaiesus
Als Antwort auf Lam 'al Adie

@Chaotica
Wer soll dafür verantwortlich sein?
Was sind die sozialen Implikationen einer technischen Entwicklung?
Ich habe immer mehr das Gefühl, dass "wir" von ChatGPT, Gemini aber auch Temu oder Primark so begeistert sind, weil sie uns ebenso faszinieren und begeistern wie vom Himmel fallende Holzkisten oder Glasperlen.
@AwetTesfaiesus
Als Antwort auf Awet Tesfaiesus, MdB

@Lamal
Ich finde man muss differenzieren. Nicht jede technische Entwicklung ist schlecht, aber jede technische Entwicklung kann man für Schlechtes nutzen.

Auch Elektrizität galt mal als Zauberei. Sie kann dafür genutzt werden, Menschen umzubringen - oder sie bei einer Herz-OP am Leben zu halten. 🤷‍♀️

Am schwierigsten finde ich, dass wir uns aktuell global in eine Situation manövrieren, wo es unmöglich zu werden scheint, Regeln auszuhandeln.

Als Antwort auf Expertenkommision Cyberunfall

Als Antwort auf Awet Tesfaiesus, MdB

@Lamal
Das ist dann noch zusätzlich das Problem. Bei Elektrizität ist es noch verschmerzbar, weil der Komplexitätsgrad noch überschaubar ist und Normalmensch das einfach Profis überlassen können.
Bei allem was mit IT und digitalem zu tun hat, finde ich, dass man inzwischen von #Digitalfeudalismus sprechen kann. Die große Mehrheit muss einfach glauben, was ihnen eine kleine Gruppe wissender erzählt. „Der Computer sagt nein!“
Als Antwort auf Awet Tesfaiesus, MdB

Ich finde die Analogie zur Alphabetisierung recht hilfreich.
Meine Bank zB kann mir - selbst auf Nachfrage in der technischen Abteilung - nicht präzise erklären, wie mein Kreditscore zustande kommt. „Der Computer“ spuckt halt eine Zahl aus und die wird dann geglaubt.
Da ist kein wesentlicher Unterschied mehr zu „Priester liest aus Buch vor und man muss das einfach glauben.“
@Lamal
Als Antwort auf Awet Tesfaiesus, MdB

@Chaotica @Lamal

Vielleicht hilft es, die Strukturen und Organisationen/Personen "dahinter" zu betrachten.
KI/AI wird von Personen und Orgas gehypt und überwiegend betrieben, die klare faschistische Strukturen aufzeigen.
Es ist mehr als gut belegt, dass KI/AI durch das notwendige Training nicht nur die. in den Trainingsdaten vorhandenen Vorurteile erlernt, sondern sogar verfestigt und das Training nur durch Ausbeutung gelingt.

Als Antwort auf Expertenkommision Cyberunfall

@expertenkommision_cyberunfall @Chaotica @Lamal

Erlaube mir eine Polemik zu früher Stunde zu replizieren, die hier kürzlich ein junges Familienmitglied vorbrachte:

„Ihr immer mit eurem bequemen Tesla-Haß; wie oft fragt ihr euch eigentlich, wieviel KdF-Wagen in so einem supadupa p.c. ID.3 steckt?“

Vielleicht anders gesagt: wieviel Kaiserreich steckt eigentlich jetzt noch (de lege lata) in unserem Staat.

Als Antwort auf Awet Tesfaiesus, MdB

Na, dann frag lieber nicht wieviel von den Menschenversuchen der Nazis in Medizin stecken.

Was aus dem Kaiserreich in unserem Staat steckt? Vieles was durch solidarische, linksgelesene Strukturen im Kaiserreich erkämpft wurde, aber auch vieles, was Konservative konservieren wollten.
Die Bundesrepublik war eine Befreiung, keine Revolution.

@Chaotica @Lamal

Als Antwort auf Awet Tesfaiesus, MdB

Ein Teil deiner Annahmen wird "Eliza Effekt" genannt.

Und folgender Satz klingt sehr nach dem Coping, dass du beschreibst:

"Der Mensch wünscht sich zwar menschliche Empathie von der KI, gleichzeitig genießt er die Gewissheit, es mit einer Maschine zu tun zu haben."

impulse.de/organisation/eliza-…

Als Antwort auf Awet Tesfaiesus, MdB

Als Antwort auf Awet Tesfaiesus, MdB

Interessante Betrachtungsweise. Ich denke einfach, Maschinen werden gebaut, um exakt und deterministisch zu arbeiten - in der Vergangenheit. Kreative und nicht-deterministische Maschinen sind in der Gesellschaft einfach nicht bekannt. Man ERWARTET von Maschinen Korrektheit, und nimmt deren Ergebnisse daher für bare Münze. (Was würdest Du zu einer Suchmaschine sagen, die Links ausspuckt, die es gar nicht gibt?)
Und dann ist die Überraschung und Empörung natürlich groß, wenn es nicht so ist.
Die von Dir aufgezeigten Beispiele von menschlichen Fehlern sind keine Empörung wert, genau aus dem Grund, den Du nennst. Menschen machen ständig Fehler. Hier gibt es keine andere Erwartungshaltung.

Meines Erachtens ist das aber auch alles richtig so. Wir müssen lernen, dass ein ...

Als Antwort auf Ascendor

@Ascendor Ein Beispiel:

D könnte sich wegen einer Beihilfe zum Diebstahl des B in einem besonders schweren Fall nach §§
242 I, 243 I S. 2 Nr. 1, 27 I strafbar gemacht haben, indem er ...

Hierzu bedarf es einer beihilfefähigen Haupttat des B.

B könnte sich gemäß §§ 242 I, 243 I 2 Nr. 1 strafbar gemacht haben, indem er … mitnahm.

Diebstahl gem. § 242 I ist …
---
Ein Wort plausibel wahrscheinlich nach dem anderen.

Als Antwort auf Awet Tesfaiesus, MdB

OK, und was beweist das? Natürlich ist es wahrscheinlich, dass in menschlichen Texten Wörter wahrscheinlich auf andere Wörter folgen. Nur haben die Menschen diese Wörter nicht aufgrund von Wahrscheinlichkeitsberechnungen aneinander gereiht, sondern weil sie nachgedacht haben und die Worte einen semantischen Sinn ergeben haben.
Die Wahrscheinlichkeit, die die KI benutzt, ist also gerade dadurch entstanden, dass sie Texte zum Training verwendet hat, die von Menschen erzeugt wurden. Daher WIRKT es, als wäre die KI eine Intelligenz. Ist sie aber nicht. Sie denkt nicht nach, sie reiht nur Wörter aufgrund von Wahrscheinlichkeiten aneinander.
Als Antwort auf Awet Tesfaiesus, MdB

ein gegenargument wäre, dass verwaltungsakte unter anderem wegen verschiedenster ismen mit absicht falsch ausgeführt werden, und es gefährlich ist, diese zu industrialisieren.

zum anderen haben llms ganz neue unknown unkowns wie dinge schiefgehen können, und die tatsache, dass schon mehrere menschen direkt durch die verwendung von llms und ais gestorben sind, ist meiner meinung nach grund genug, ...

Als Antwort auf Awet Tesfaiesus, MdB

jupp, die entwicklung ist überall nicht gut, und ich kann gut verstehen, dass dann manchmal "egal was, hauptsache was anderes" verlockend ist, aber ki, zumindest in dem rahmen wie es momentan benutzt und entwickelt wird, ain't it.

pharmakonzerne sind nicht die guten, aber sie können verhältnismäßig wenig schaden anrichten, weil die regularien ziemlich solide sind. natürlich erst immer *nachdem* menschen zu schaden kamen...

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

Nein ich seh das auch so. Und nebenbei ist das eine philosophisch ziemlich interessante Frage. Ist unsere natürliche Intelligenz wirklich irgendwie erhaben über die maschinelle? Es gibt dazu viel spannende Literatur. Roger Penrose: "The Emperor's new mind" fällt mir gerade ein.

Witzigerweise scheint mir gerade die IT-Bubble, die ja in gewisser Weise mal besonders verantwortlich ist dafür, besonders streng mit den LLMs zu sein. Haben die einfach nur Angst um ihre Coder-Jobs?

1/

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

Interessante Frage. Ich habe einige der Diskussionsthreads quer gelesen. Ich habe keinerlei juristische Erfahrung. Hier meine 2c. :)

Der eigentliche Skandal deiner Aussagen liegt IMHO in der hohen Anzahl der menschlichen Fehler. Wobei politisch motivierte rechtliche Fehler da nicht eingerechnet werden sollten - wir haben verschiedene Ebenen von Fehlern.

1/x

Als Antwort auf Awet Tesfaiesus, MdB

Am schönsten finde ich, wenn KI-Ludditen Nutzern von KI "Denkfaulheit" vorwerfen. Deren Argumente sind die Satanic Panic von TV, Videospielen, Google, Wikipedia, Kazaa, jeder neuen Technologie nur in pseudo-intellektuellem Gewand nochmal aufgewärmt und wirkt, als wären sie Lobbyisten der Rechteverwertungsindustrie.

Wären Computer ohne KI die deterministischen Maschinen die sie fordern würde nicht 3 mal am Tag ihr Word abstürzen weil sie Malware haben. Ich finds lächerlich

Als Antwort auf Awet Tesfaiesus, MdB

In Frankfurt hatte ich mal ein Büro Tür an Tür mit einem Mann, der Software für die Luftfahrtindustrie entwickelt, mit dem führte ich Gespräche über Software in Flugzeugen. Der meinte, es sei erstaunlich, dass so wenige Flugzeuge wegen Softwarefehlern herunterfielen und der erklärte mir damals (vor ~ 15 Jahren), dass Flugzeuge immer zwei, programmiertechnisch vollständig eigenständige Systeme hätten, damit nicht bei gleichen Bedingungen der gleiche Fehler auftritt. 1/x
Als Antwort auf Awet Tesfaiesus, MdB

in bestimmten, spezialisierten Teilbereichen ganz bestimmt: z.B. könnte eine "AI" bei Texterkennung auch einfach mal 'sagen bzw. sich eingestehen': "da frage ich mal kurz einen (OCR) Experten, der das besser kann, als ich!"... regelmäßig interpretieren AIs bei mir in eigentlich perfekt lesbare Screenshots Dinge rein, die da ganz offensichtlich nicht stehen. Einem klassischen OCR-Tool der vergangenen etwa 20 Jahre würde das nicht passieren!

Also evtl. wieder weniger Generalismus?

Als Antwort auf Awet Tesfaiesus, MdB

zumindest durch einen der gängigen Algorithmen, teils auch druch LLMs, ja. Außer bei meinem geliebten Nokia 808, das eh eine viel bessere Kamera hat, als mein Billig-Android, manchmal aber auch viel Nachbearbeitung braucht, bis es so aussieht, wie es soll... aber wenigstens wurden dann keine wichtigen Bildinformationen unwiderruflich zerstört (es sei denn, man überbelichtet, natürlich!)
Als Antwort auf Awet Tesfaiesus, MdB

Die genannte Fehlerquote bei Verwaltungsakten erscheint mir relativ hoch gegriffen. Das Wunderbare ist dann ja aber auch, dass ein Korrekturmechanismus dennoch bereits angelegt ist, mittels Einspruch/Widerspruch oder zB im Steuerrecht weiterer Korrekturmöglichkeiten.

Also ja: Menschen sind auch fehlerbehaftet, aber dafür sind es eben Menschen und Nicht Marketing-Sprechblasen.

Als Antwort auf Awet Tesfaiesus, MdB

Kürzlich habe ich eine KI gefragt, wer ich (Klarname) bin. Ergebnis:
AfD-Mitglied mit gewalttätiger Vergangenheit in diversen rechtsradikalen Gruppen und MdL im Landtag BW.
Nach dem Hinweis, dass es im Landtag BW nie eine Person gab, rudert die KI zurück und gibt zu, dass alles erfunden war.
Ich kenne mich, aber jemand anderes, potenzieller AG vielleicht, nicht und glaubt der KI.
Als Antwort auf Morsus Apri R.I.P. Natenom🕯️🖤

@morsuapri das ist schon schlimm .

Aber mehrfach wurde ich im Gerichtssaal für die Dolmetscherin gehalten. Obwohl ich dort in Robbe (!) saß. Einmal wollte der Richter mir ein Ordnungsgeld aufbrummen wegen Nichterscheinens (Amtsgericht München!). Ich möchte ja glauben, er hat meine Identität auch falsch zugeordnet.

Als Antwort auf Awet Tesfaiesus, MdB

Wenn die betreffende Person zugegen ist und den Irrtum aufklären kann, ist das eine andere Situation, wie wenn da jemand alleine vor dem PC sitzt und „recherchiert“.
Natürlich könnte die Person selbst einige Punkte der Darstellung der KI nachprüfen, aber da bin ich eher misstrauisch.
Eine Anfrage an eine KI KANN einen Hinweis in die richtige Richtung geben, muss aber nachgeprüft (Fachbücher, Zeitschriften,...) werden.
Als Antwort auf Awet Tesfaiesus, MdB

Quasi passend dazu: das klingt für normale Menschen sicher skurril, aber in der Ausbildung habe ich reichlich (menschliche) Berichte (uA auch von der Polizei) gelesen, die kaum weniger hanebüchen (wiewohl weniger offensichtlich) waren als dieser „Frosch“. Typische Fehler zB: alle Farben, rechts/links, Personen vertauscht, Rechenfehler, Reihenfolgen vertauscht.

t3n.de/news/polizei-ki-schreib…

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

Alle machen Fehler. Das zu erkennen ist der erste Schritt zur Intelligenz.
Menschen, die behaupten keine Fehler zu machen, sind "Die Dummen"!

Der Staatsapparat hat besondere Rechte bei der #Gewaltausübung, daraus resultiert auch eine besondere #Sorgfaltspflicht!

zdf.de/dokus/ganz-normale-maen…

dbb.de/lexikon/themenartikel/r…

Sollte es belegbare Zweifel an der Sorgfaltspflicht der Beamten geben, hat der Bürger ein #Widerstandsrecht.
#Notwehr

gesetze-im-internet.de/gg/art_…

Als Antwort auf Awet Tesfaiesus, MdB

ich glaube der große Unterschied zwischen menschlichen Fehlern und LLMs ist nicht einfach quantitativ, sondern grundsätzlicher:

Bei menschlichen Fehlern werden wir unseren Ansprüchen nicht gerecht, bei LLMs haben wir unsere Ansprüche aufgegeben. Das ist wie der Lehrer, über den man witzelt, dass er die Noten auswürfelt, und dem, der es wirklich tut.

Es geht weniger darum, ob LLMs mehr oder weniger Fehler machen als Menschen, sondern um die Option daran jemals etwas zu ändern.

Als Antwort auf Awet Tesfaiesus, MdB

Als Antwort auf BrennpunktUA debunked 🕵🏻‍♀️

@BrennpunktUA
Überhöhen wir uns Menschen da nicht evtl.? "Gewissenhaftes Lektorieren" ist auch nicht die Stärke von Menschen.

Juristen belegen ihre Aussagen (teils wort-weise) mit Fundstellen. Es war schon immer ein Running Gag im Jura-Studium, diese Fundstellen nachzuschlagen und festzustellen, dass das vermeintlich zitierte da überhaupt nicht steht. Gleichwohl wird die Fundstelle brav von einem Gericht nach dem nächsten übernommen. Oft wird nicht geprüft.

Als Antwort auf Awet Tesfaiesus, MdB

Hmm, OK. Wenn ich sowas lese, springt immer mein Advocatus Diaboli an:
Diesen Prozess könnte man signifikant durch den Einsatz von ... "KI" ... verbessern. Also nicht einfach einen Chatbot fragen, sondern richtig, Vektor-DB mit den Inhalten, exakte Scopes und dediziertes, (nach-) trainiertes Netz, meinetwegen noch ein LLM zum nett Aufbereiten der Antworten.
@BrennpunktUA @marcuwekling
Als Antwort auf Awet Tesfaiesus, MdB

Ich glaube die Prämisse ist falsch. Der Fakt, dass Prozesse, die viel menschliches Handeln beinhalten, fehleranfällig sind ist der Grund für ein Bedürfnis an Automation, die verlässlich (meint: reproduzierbar gleiche Ergebnisse) ist. KI bringt diese Verlässlichkeit nicht mit sich, d. h. Es gibt *mehr* Kontrollnotwendigkeit und damit Überforderung dank einer Flut von unverlässlichen Ergebnissen, somit weniger Produktivität. Deswegen der kritischere Blick darauf.
Als Antwort auf Awet Tesfaiesus, MdB

Ich empfinde das nicht so. Wir leben in einem System mit eingebauten Korrekturmechanismen und um deren Qualität wird in Politik und Gesellschaft gestritten um diese kontinuierlich zu verbessern und dazu kann man sicher auch Technolgie nutzen. Technologie, die den Status Quo jedoch nur manifestiert und die Verbesserungsmöglichkeiten weitestgehend in die Hände einiger weniger, nicht gesellschaftlich Legitimierter legt, ist da IMO eben kritisch(er) zu betrachten.
Als Antwort auf Oliver Drotbohm

Das große Mehr an Geschwindigkeit bei gleicher Fehlerrate ist vor allem deshalb ein Problem, weil es die systemimmanenten Korrekturmechanismen (Widerspruchsmöglichkeiten, Gerichte) ebenso überflutet. Und man es auch bisher noch mehr gewohnt ist, dass etwas richtig ist, wenn es aus einer Maschine kommt und die dann genauso falschen Ergebnisse sogar weniger hinterfragt.
Als Antwort auf Oliver Drotbohm

@odrotbohm
Halte ich überhaupt nicht für schlüssig. Ein Beispiel:

Die Beschränkung des Familiennachzugs für syr. Geflüchtet war in allen Fällen rechtlich falsch. Sie war aber politisch vorgegeben.

Quasi alle Klagen dagegen waren erfolgreich.

Aber nur etwa 30% haben überhaupt geklagt. Heißt: 70% haben es hingenommen. Gerichte trotzdem abgesoffen.

Ein LLM hätte das m.E. mit großer Wahrscheinlichkeit weniger falsch gehandhabt.

Als Antwort auf Awet Tesfaiesus, MdB

Das würde ich grundsätzlich auch so sehen, wären da nicht die anderen Faktoren wie gesellschaftliche Legitimation, Steuerbarkeit, Ressourcenverbrauch. Ich wollte nur darauf hinaus, dass es IMO nicht so ist, dass die Fehleranfälligkeit von menschengetriebenen Prozessen nicht problematisiert wird. Es gibt nur Arten und Weisen, diese anzugehen, die selbst weniger problembehaftet sind als KI. IT-getriebene Automatisierung gibt es ja nicht erst seit OpenAI.
Als Antwort auf Awet Tesfaiesus, MdB

Deine Vergleiche der Fehlerquote finde ich spannend, aber so nicht für sinnvoll, denn Du vergleichst Äpfel mit Birnen:

1.) Bescheide, die intentionell Fehlerhaft sind: Der Fehler wird absichtlich gemacht, etwa, um einer politischen Vorgabe zu folgen.
2.) Fehler, die LLMs unabsichtlich herbeiphantasieren. Dabei kann man sie allerdings sehr wohl zu 1.) ebenfalls heran ziehen.

@odrotbohm @marcuwekling

Als Antwort auf Awet Tesfaiesus, MdB

Man nehme übermäßige Komplexität, handwerklich an dieser Stelle wohl oft schlechte Gesetze, die streckenweise selbst einer juristischen Prüfung nicht gehalten haben, zunächst schrottige Software, Zeitdruck (bei Software wie Bearbeitern) - dann bekommt man sowas.
Ich sehe aber nicht, wie LLMs hier helfen würden: Die liefern flott Ergebnisse, wirken aber ebenfalls wie ein DOS, denn das tun sie weit schneller, als man es überprüfen könnte; dabei…

@odrotbohm @marcuwekling

Als Antwort auf Awet Tesfaiesus, MdB

Früher™ wäre recht wenig Werbung für blaue Tabletten in deinem Briefkasten gelandet: Der Ertrag hätte die hohen Kosten nicht aufgefangen. Mit der E-Mail kam es bekanntlich anders; Kosten der Abwehr derartiger Produktinformation übersteigt regelmäßig jene ordnungsgemäßer Lieferungen.

Ähnlich verhält sich das mit dem Lernen. Natürlich ist ein Schlüter keine sakrosankte Bibel. Aber er bildet einen gewissen Konsens ab. Man kann viele Schlüters mit wenig Aufwand machen…

Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm
Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.
Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm
Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.
Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm
Offene Frage. Bestenfalls mit dem Wissen, ob die Entscheidung “richtig” war. Das dürfte der Bescheid sein, wenn es keine Revision gab, oder das Revisionsurteil, wenn es eines gab.
Und hier liegt das Problem: Durch die KI wird lediglich der Filter automatisiert, mit dem ich die Leute ablehne, die keine Verbindungen und Mittel haben. Also wahrscheinlich die Bedürftigeren.
Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm
Sicher bin ich mir offensichtlich auch nicht, sonst hätte ich ja nicht meiner “all-positive” Aussage selbst widersprochen ;-)
Ein systematischer Fehler, den die KI wahrscheinlich nicht machen würde ist vor dem Mittagessen negativere Bescheide auszustellen, als kurz nach dem Frühstück.
Beschrieben in diesem auch sonst lesenswerten Buch über fehlerhafte menschliche Heuristiken.

genialokal.de/Produkt/Daniel-K…

Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm
Was eine richtige Entscheidung ist, ist ja irgendwie auch Verhandlungssache. Und da ist es dann schwer in ein LLM reinzuschauen. Es wird dir einen Text generieren, warum es eine Entscheidung getroffen hat, aber dieser Text wird nicht der Begründung entsprechen, warum es die Entscheidung getroffen hat. Die wäre nämlich schlicht, weil sie in einem 100000 dimensionalen Vektorraum “nahe lag”.
Als Antwort auf Gormfull

@Gormfull @odrotbohm ich erinnere mich dunkel an eine (für meine profession wenig vorteilhafte) Dissertation, die (nach meiner Erinnerung) die Rechtspraxis kaum anders darstellte. Ich denke es könnte Somek, Rechtliches Wissen, gewesen sein :

suhrkamp.de/buch/alexander-som…

Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm
Wenn 50% falsch sind bei > 3Monaten bearbeitungszeit, wäre dann nicht ein System mit 50% Fehleranfälligkeit und 1 Minute Bearbeitung das bessere System? z.B. Münzwurf oder Würfel?
Woher nimmst du die Annahme, dass das LLM nur 20% Fehleranfällig wäre? Es hat doch lediglich die bisherigen Daten als Grundlage. Und falls 50% falsch sind, dann sind ja auch (im Schnitt) 50% der Revisionen falsch. Es gibt also keine besseren Daten.
Als Antwort auf Awet Tesfaiesus, MdB

@odrotbohm I know. Trotzdem sind wir der Vision möglicherweise näher denn jehmals, die Textproduktionsautomaten aka LLMs sind da schon ziemlich gut geworden. Man darf natürlich keine offen trainiertes Modell mit all dem Mist aus dem Internet darauf ansetzen. Und mancher Amtsleiter wird seinen gesetzeswidrigen Anordnungen nachtrauern. Für die 95% der Fälle mit klaren Vorraussetzungen sollten auch die Ergebnisse klar sein.
Als Antwort auf Awet Tesfaiesus, MdB

Als Antwort auf Andreas Wagner

@anwagnerdreas

Ich weiß ja gar nicht, ob es diesen Vertrauensvorschuss gegenüber KI wirklich so gibt.

Was sind eigentlich die Konturen des Unterschieds zu Vertrauensankern, wie:

-Wappen
-Roben
-Gerichtssäle
-Urteilsstil

Alle Jurist:innen lernen doch den Satz „Es ist so und kann nicht anders sein“ im Hinterkopf zu haben, wenn man Urteilsstil schreibt.

Als Antwort auf Awet Tesfaiesus, MdB

@anwagnerdreas Ein interessanter Vergleich von Vertrauenskulturen!
Ich denke, wenn wir die Aussagen von Menschen kritisch reflektieren (was Journalisten, Juristen u.a. beruflich tun sollten), nutzen wir unser Bild von deren "Positionalität" zur Frage nach ihrer möglichen Interessiertheit in der Sache.
KI hebelt dies aber aus, sie hat das nicht, sie wirkt fälschlich neutral.
Gerichte haben instit.Interessen, etwa Fälle erledigen, oder nicht von höheren Gerichten korrigiert werden.
Als Antwort auf Awet Tesfaiesus, MdB

Tatsächlich habe ich vielleicht den Mund etwas voll genommen: Ich weiß von Untersuchungen über die vertrauenerweckende Wirkung von Eloquenz und konfidentem Auftreten (und Geschlechterrollen usw.), Merkmalen also, die den Chatsystemen effektiv antrainiert werden (und sei es weil die Humans in the Loop im RLHF das gut finden). Diese Studien stammen allerdings zumeist noch aus der Zeit *vor* den erfolgreichen Chatsystemen, sie untersuchen es also nicht anhand solcher Systeme...

Ich weiß noch von keinen Studien, die die "deference" gegenüber einem identischen Auftreten hinsichtlich dessen vergleichen, ob es von einem Computer oder einer natürlichen Person (mit variierenden Rollen und Attributen), oder vielleicht auch einem journalistischen Medium entgegen tritt. Müsste man mal machen...

Oder weiß jemand was in der Richtung?

Als Antwort auf Awet Tesfaiesus, MdB

Ein Unterschied ist, dass wir menschliche Urheber befragen und verantwortlich machen können. Diese können lernen, die gleichen Fehler und Unwahrheiten nicht mehr zu verbreiten. LLMs sind grundsätzlich nicht lernfähig. Was als Lernen verkauft wird, ist ein (aus Kostengründen) sehr beschränkter Kontext, der außerdem „das Gelernte“ nicht sicherstellt, sondern lediglich wahrscheinlicher macht.
Als Antwort auf Johannes Link

@jlink Sorry! Worin liegt der Unterschied zu menschlichem Lernen tatsächlich und vor allem: was folgt daraus für die Praxis?

Glaubst Du nicht, die Mitarbeiter:in auf dem Jobcenter "lernt" nicht auch täglich Dinge, die sie nicht lernen sollte (und wendet sie nachher unzulässig an)?

Beispiel in der Praxis: Der Antrag stinkt nach Raucherwohnung. Nirgendwo im SGB steht das, aber ich kenne Menschen, die daraus schließen: "Wer qualmt, säuft auch".

Als Antwort auf Reinald Kirchner

@Reinald @jlink

Wollt ihr noch ein paar "Alltagswissen" aus dem Jurist:innen-Leben:

1. Ob ein männlicher Zeuge lügt, erkannte ein Ausbilder (Richter mit Leitungsfunktion) meiner besseren Hälfte u.A. an deren Unterarmen! (tätowiert=Knastvogel=Lügner)

2. Ein:e Polizist:in verriet mir: ob man einen Straftäter vor sich hat, erkennt man (natürlich) an den Schuhen. (Betrüger haben billiges Schuhwerk)

Glaubt nicht, dass die Welt vor lauter Menschen nicht sei, wie sie ist.

Als Antwort auf Awet Tesfaiesus, MdB

Der Unterschied zu menschlichen Lernen liegt darin, dass ein Mensch mit Konsequenzen zu rechnen hat (zB. soziale Ausgrenzung) wenn er zu häufig Fehler macht, die gegen gesellschaftliche Normen und Gesetze verstoßen.(Umgangssprachlich würde ich das als "Gruppenzwang" bezeichnen)

Die Fähigkeit so etwas zu empfinden (oder überhaupt irgendetwas zu empfinden) hat eine "KI" nicht. Fehler dürfen also vom Design aus nicht passieren weil es nicht geht sie im nachhinein zu entlernen.

Als Antwort auf Awet Tesfaiesus, MdB

yepp, Bildung ist problematisch. Verwaltung auch.

Ermessensspielraum bei einer Bank, kenne ich nur von vermögenden Menschen, die persönlichen Kontakt zum Bankberater haben.

Menschen, die Schulentwicklung machen, reden darüber schon lange. z.b. im #FediLZ gibts da bestimmt mehr.

Aber das kickt halt nicht so in der Presse. und irgendwie läuft da zuviel getrennt und parallel.

Als Antwort auf Awet Tesfaiesus, MdB

Als Antwort auf Awet Tesfaiesus, MdB

Eine Maschine, die mir eine korrekte Information liefern soll, sollte eine niedrigere Fehlerquote haben - ich warte ja gerade die Rechercheleistung, die ich sonst selbst erbringen muss. Gleichzeitig hat Marc-Uwe gestern einen diesbezüglich wichtigen Aspekt angesprochen: Die KI-Texte klingen oft so wahrscheinlich, obwohl sie falsch sind. Sie wecken Vertrauen, das nicht gerechtfertigt ist.

Und wer ist generell bei menschlichen Aussagen weniger skeptisch?

1/x

Als Antwort auf Der zuversichtliche Daniel

Man vertraut zwar einem #Experten in seinem Gebiet mehr, einem #Journalist oder #Richter vielleicht auch. Aber wenn #Dieseldieter mit hocheffiziente Verbrenner erklärt, dann gehe ich in die Debatte.

Kann man übrigens mit der KI nicht wirklich.

Deine beiden Beispiel sind für mich zudem nicht nachvollziehbar:

1. VA können gerichtlich überprüft werden. Die Skepsis gegen die Richtigkeit ist also bereits im System verankert. Woher stammen Deine %-Angaben...

2/x

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Awet Tesfaiesus, MdB

Ich habe die gleiche Ausbildung genossen, solche Zahlen wurden mir nie genannt 😉

Vor allem aber muss es da ja einen Maßstab geben. Meinst Du weltweit, deutschlandweit, Steuerbescheide, Hartz IV-Bescheide, Asyl-Bescheide, Baugenehmigungen usw.?

Du siehst ich bin an dieser Stelle skeptisch mit Dir und das obwohl Du bei mir anhand vieler Deiner sonstigen Posts durchaus Vertrauen genießt.

Als Antwort auf Der zuversichtliche Daniel

eigentlich? Und wieso nennst Du eine so große Spanne? Und ist darin berücksichtigt, dass nicht jeder Fehler sich im Ergebnis auswirkt und was ist mit falsch positiven Bescheiden, sind die gleich schlimm wie negative?

2. Falsche Atlanten basieren in der Regel vermutlich eher auf Überalterung und nicht auf einem menschlichen Fehler bei der Erstellung. Das ist also gar nicht vergleichbar mit dem Problem, dass eine KI, die vorgibt aktuell zu sein, falsche...

3/x

Als Antwort auf Der zuversichtliche Daniel

Ergebnisse auswirft.

Zuletzt noch eine Frage dazu, welche Schlussfolgerung Du aus dem Vergleich ziehst:

Für mich ist klar, dass Automatisierung nur dann Sinn ergibt, wenn dadurch die Fehlerzahl sinkt. Das scheint mir aber gerade nicht der Fall. Vielmehr sinkt nur die Überprüf- und Feststellbarkeit. Dann doch lieber falsche, aber nachvollziehbare menschliche Entscheidungen, oder?

Dann können die RA, die vor allem streiten um Geld zu verdienen, durch...

4/x

Als Antwort auf Der zuversichtliche Daniel

@Der_zuversichtliche_Daniel da überschätzt du mE die Qualität von Verwaltung.

(1) Platzverweis schon mal prüfbar begründet bekommen? (Vermutlich nicht, weil sofort Vollzug).

(2) Hartz4-Bescheid schon mal begründet bekommen?

(3) Parkknölkchen schon mal prüfbar „begründet“ bekommen?

(4) schon mal nen Steuerbescheid begründet bekommen? (Selten)

Das ist allenfalls floskelhaftes Handeln. Das mach das LLM jedenfalls auch nicht schlechter.

Als Antwort auf Awet Tesfaiesus, MdB

Platzverweise habe ich noch nie betreut.

Parkknöllchen sind null komplex und faktisch durch den Verstoß selbst immer begründet.

Hartz IV-Bescheide kenne ich nur wenige.

#Steuer|bescheide sind indes ( @Obermueller_und_Partner ) unser Tageswerk. Diese entsprechen entweder der Erklärung, dann hab ich die Begründung oder Erläutern die Abweichung. Bei den wenigen Ausnahmen, bekommst DU die Erläuterung bei Nachfrage.

Das kann ein LLM nicht!

Als Antwort auf Awet Tesfaiesus, MdB

Der Unterschied zu Schule: Wer veraltete Daten/Quellen/ aka Bücher nutzt braucht nicht zu diskutieren, natürlich ist das falsch und das wissen die Beteiligten in der Regel oder sollten es wissen und verhindern. Dazu gibt es eigentlich Prozesse die das sicherstellen (Lehrkräfte die das notwendige Wissen haben sollten).
Funktioniert halt oft nicht.
Persönliches Erleben: Lehrkräfte auf Falsches angesprochen reagieren im überwiegend sehr pikiert und aggressiv. #Fehlerkultur halt.
Als Antwort auf Awet Tesfaiesus, MdB