machine learning
open source AI
Large Language Models
coding assistant
AI infrastructure
Sign Up | LinkedIn
Link: linkedin.comlinkedin.com
Mathematik ist nicht verhandelbar, Haftung auch nicht. Ein Transformer berechnet P(y_t | y_{<t}, x) = softmax(f_θ(y_{<t}, x)).
Jede Ausgabe ist eine Wahrscheinlichkeitsschätzung basierend auf Trainingsstatistik. Mathematisch beweisbar ist die Wahrscheinlichkeit für plausibel klingende, aber faktisch falsche Ausgaben ist größer als Null. Das ist eine Eigenschaft der Verlustfunktion, auf die diese Systeme optimiert werden.
Rechtliche Konsequenzen…
OpenAI Terms of Service 2025: “THE SERVICES ARE PROVIDED ‘AS IS’ […] WE MAKE NO WARRANTIES REGARDING ACCURACY”.
Anthropic, Google, Meta formulieren identisch. Der Anbieter haftet nicht für falsche Outputs. Der Nutzer trägt das vollständige Risiko.
Geschäftsführerhaftung nach § 43 GmbHG greift bei Sorgfaltspflichtverletzungen. Wer Systeme einsetzt, deren Fehlerarten er nicht kennt, handelt fahrlässig. Anders als bei etablierten Technologien, wo Verantwortung an qualifizierte Personen delegierbar ist, z. B. QPs in der Arzneimittelherstellung aus, welcher ich komme, existieren für LLMs keine staatlich anerkannten Zertifizierungen oder regulierten Verantwortungsträger.
Die Geschäftsführung trägt die Verantwortung direkt und kann sie nicht rechtsverbindlich delegieren!
DSGVO Artikel 22 fordert Erklärbarkeit bei automatisierten Entscheidungen. LLMs können nicht kausal erklären, warum Token X gewählt wurde.
Bußgelder…
bis 20 Millionen Euro oder vier Prozent des Jahresumsatzes.
Empirischer Fall…
Air Canada 2024
Chatbot gab falsche Erstattungsrichtlinie an, Unternehmen musste zahlen.
In dem Fall haftet der Nutzer, nicht der Technologieanbieter.
Ein Transformer-basiertes LLM erzeugt hochkonfidente, syntaktisch korrekte, semantisch plausible Falschaussagen. Für Laien nicht von korrekten Outputs unterscheidbar.
Vier Aussagen müssen ohne Wenn und Aber internalisiert sein…
Das System rät bei Unsicherheit, statt Unwissen zuzugeben weil die Optimierungsziele im Training das belohnen.
Plausibilität und Korrektheit sind statistisch unabhängig. Überzeugend formuliert bedeutet nicht faktisch korrekt.
Reproduzierbarkeit existiert nicht über Modell-Updates hinweg. Was heute funktioniert, kann morgen anders ausgeben.
Sie haften für jeden Output in Geschäftsprozessen. Der Vendor haftet nicht.
Es gibt keine DIN-Norm für LLM-Einsatz in kritischen Prozessen. Keine ISO-Zertifizierung für „Halluzinationsraten“. Keine staatlich anerkannte Sachverständigenprüfung wie bei etablierten Technologien. Betriebshaftpflichtversicherungen decken oft keine AI-spezifischen Risiken ab. D&Os nur mit vielen teuren Zusatzpolicen gedeckelt.
Für operative Kernprozesse mit Haftungsrelevanz wie Buchhaltung, Vertragsmanagement, Compliance ist mathematisches Grundverständnis Risikomanagement. Nicht um Formeln zu beherrschen, sondern um Konsequenzen zu begreifen!
Wer die genannten Fragen nicht beantworten kann, sollte das System nicht in Produktion nehmen. Oder bereit sein, persönlich zu haften.