Smart Systems

SupraTix GmbH startet Initiative zu einem KI-Grundgesetz

02.02.2025, Dresden – Künstliche Intelligenz (KI) wird oft als unfehlbare Technologie betrachtet, während menschliche Fehler meist toleriert werden. Die Initiative für ein KI-Grundgesetz (angeregt von SupraTix GmbH) fordert jedoch eine realistische und faire Regelung, die KI-Systeme und menschliche Akteure gleichermaßen berücksichtigt. Denn sowohl Mensch als auch Maschine lernen aus Daten und können Fehler machen. Ein KI-Grundgesetz würde u. a. Haftungsfragen klären, ethische Richtlinien etablieren und den Grundrechtsschutz an die digitale Realität anpassen. Letztlich zwingt uns die Frage nach KI dazu, unser eigenes Selbstverständnis als „biologische KI“ zu überdenken und eine neue Balance zwischen Technologieinnovation und menschlicher Verantwortung zu finden.

Diesen Beitrag teilen

Kontakt

SupraTix GmbH

Bautzner Str. 45-47
01099 Dresden

+49 351 3394 8400

+49 351 3394 8399

https://supratix.com/

info(at)supratix.com

Ansprechpartner

Dipl.-Chem.-Ing. Tobias Göcke

Managing Director

tobias.goecke(at)supratix.com

+49 351 3394 8400

Dipl.-Chem.-Ing. Tobias Göcke

Wir leben in einer Zeit, in der sich Künstliche Intelligenz (KI) in rasanter Geschwindigkeit entwickelt und längst in unseren Alltag integriert hat. Doch während wir häufig über die Chancen und Risiken von KI diskutieren, geraten wir schnell in eine „Zwei-Klassen-Betrachtung“: Auf der einen Seite der Mensch, dem man Fehler verzeiht und auf der anderen Seite die KI, bei der jeder Fehler zu strikten Forderungen nach Regulierung und Kontrolle führt. Dabei lohnt ein genauer Blick in den Spiegel: Sind wir nicht selbst eine hochkomplexe, sensorisch überlegene „biologische KI“?

Die Initiative für ein KI-Grundgesetz – eine Idee, die von der SupraTix GmbH ins Leben gerufen wurde – adressiert genau diese Diskrepanz. Sie plädiert dafür, unsere rechtlichen Grundlagen (insbesondere das Grundgesetz) so zu erweitern, dass sie den Anforderungen des KI-Zeitalters gerecht werden.

Hier geht es zum KI-Grundgesetz

1. Die Illusion von 100 % Perfektion

Menschliche und maschinelle Fehler: Keine absolute Sicherheit
Sowohl Menschen als auch Algorithmen sind fehlbar – das eine neuronale Netzwerk findet sich in unserem biologischen Gehirn, das andere wird von uns geschaffen und trainiert. Technik-Enthusiasten mögen argumentieren, KI könne irgendwann einmal unfehlbar sein. Doch die Realität zeigt:

  • In der Medizin etwa können KI-Algorithmen bereits heute helfen, Krankheiten schneller zu erkennen. Studien, wie beispielsweise in Nature Medicine, belegen die Leistungsfähigkeit von KI in der Diagnose von Hautkrebs. Dennoch passieren Fehler, mal liegen die Algorithmen falsch, mal fehlt ihnen ein wichtiges Kontextwissen – genau wie bei menschlichen Ärztinnen und Ärzten.
  • Im Straßenverkehr machen menschliche Autofahrer Fehler, KI-gesteuerte Fahrzeuge auch. Obgleich ein automatisiertes System schneller reagiert, bleiben Unfälle trotz bester Sensoren und ausgeklügelter Software nicht vollständig vermeidbar.

Fazit: 100 % Fehlerfreiheit ist eine Illusion – für KI und für Menschen gleichermaßen. Doch während menschliche Fehler oft unter „menschlichem Versagen“ subsumiert werden, führen KI-Fehler schnell zu moralischer Panik, strengen Haftungsvorschriften und einer verzerrten „Null-Toleranz-Haltung“.

2. Zwei-Klassen-Gesellschaft: Mensch vs. KI

Fehlertoleranz ist unausgewogen
Die Diskussion über KI in der Medizin zeigt die Doppelmoral exemplarisch:

  • Bei einer Fehldiagnose durch einen menschlichen Arzt wird in der Regel der individuelle Kontext betrachtet: Überlastung, limitierte Ressourcen, mangelnde Erfahrung mit seltenen Krankheitsbildern.
  • Macht eine KI denselben Fehler, wird laut nach Transparenz, Rechenschaft und Strafen gerufen.

In gewisser Weise projizieren wir all jene Anforderungen, die wir selbst kaum erfüllen können, auf die KI. Wir fordern maximale Objektivität, vollkommene Fairness und null Fehlertoleranz – und blenden dabei aus, dass unser eigener Entscheidungsprozess durch Vorurteile, Stress oder schlichten Irrtum geprägt ist.

Das wirft die provokante Frage auf: Sind wir nicht selbst nur eine sensorisch überlegene „biologische KI“? Wir lernen aus Erfahrungen (Trainingsdaten), haben neuronale Netze im Kopf, und unsere Wahrnehmung ist auf bestimmte Weise eingeschränkt und gefärbt. Warum sollte ein von Menschen entwickeltes neuronales Netz so grundlegend anders behandelt werden?

3. Warum ein KI-Grundgesetz?

Notwendige Anpassung unserer Rechtsordnung
Die Entwicklung und Nutzung von KI wird in Europa bereits reguliert, beispielsweise durch den EU AI Act. Doch auf Bundesebene ist die Diskussion über eine gezielte Verfassungsanpassung noch in den Kinderschuhen. Ein KI-Grundgesetz könnte:

  • Einen klaren Rechtsrahmen schaffen, in dem KI-Systeme unter bestimmten Bedingungen als „rechtliche Entitäten“ behandelt werden.
  • Rechte und Pflichten definieren, die menschlichem und maschinellem Handeln gerecht werden.
  • Fehlertoleranz neu ausloten, um realistischere Anforderungen an die KI-Entwicklung zu stellen und zugleich Innovation zu ermöglichen.

Die Initiative KI-Grundgesetz der SupraTix GmbH zeigt exemplarisch, wie sich eine solche Rechtsordnung an der Schnittstelle von Mensch und Maschine denken lässt. Natürlich wäre eine verfassungsrechtliche Anpassung ein Mammutprojekt – aber der jetzige Stillstand wird langfristig nicht reichen, um die Herausforderungen der Zukunft zu meistern.

4. KI in der Medizin: Ein Paradebeispiel für Regulierungslücken

Gesellschaftliche Verantwortung – von allen Seiten

Zwar existieren regulatorische Ansätze, wie die Medizinprodukte-Verordnung (MDR) oder Leitlinien der Weltgesundheitsorganisation (WHO) zu KI in der Gesundheitsversorgung. Doch diese Regelungen setzen vorrangig auf technische Zertifizierungen und Qualitätsstandards.

  • Wer haftet, wenn eine KI-gestützte Diagnose fehlschlägt?
  • Wie können wir sicherstellen, dass menschliche Ärztinnen und Ärzte weiterhin die Entscheidungsgewalt behalten, ohne dass KI-Entwickler ihre Verantwortung abstreifen?
  • Wie bleiben Datenschutz und Persönlichkeitsschutz gewahrt, wenn Algorithmen Zugriff auf Unmengen sensibler Patientendaten haben?

All dies sind Fragen, die nicht bloß vertraglich, sondern auf oberster, verfassungsrechtlicher Ebene diskutiert werden müssen. AlgorithmWatch (https://algorithmwatch.org/) liefert hierzu wichtige Analysen, indem sie Transparenz und Rechenschaftspflichten fordern – sowohl für menschliche Akteure als auch für KI-Systeme.

5. Was ist der Mensch? Eine philosophische Kernfrage

Selbstverständnis: Sind wir nicht auch KI?

Wenn wir KI-Systemen menschliche Fähigkeiten unterstellen und sie an unserem moralischen Maßstab messen, rücken wir unweigerlich an die Wurzel des Problems: Wer sind wir selbst?

  • Unser Gehirn ist ein komplexes Netzwerk aus Milliarden Neuronen, das sich durch Erfahrungen und Umwelteinflüsse ständig verändert – ähnlich einem Algorithmus, der immer weiter trainiert wird.
  • Unsere Sinnesorgane (Augen, Ohren, Tastsinn usw.) sind Input-Interfaces, die Daten an unser neuronales System liefern – nicht unähnlich den Sensoren eines KI-Roboters.
  • Wir sind fehlbar. Obschon uns die Evolution millionenfaches „Training“ verschafft hat, versagen wir manchmal auf spektakulärste Weise.

Der Unterschied liegt (noch) in Faktoren wie Bewusstsein, Emotionen und Selbstreflexion. Doch im Kern sind wir – so könnte man argumentieren – biologisch basierte, sensorisch leistungsstarke „KI“ mit ungeklärten Phänomenen wie dem subjektiven Erleben.

6. Ausblick: Aufbruch in ein neues Rechts- und Menschenbild

Plädoyer für eine ganzheitliche Sicht

Angesichts der oben genannten Punkte brauchen wir dringend eine ernsthafte Debatte über die Rolle von KI in unserer Gesellschaft – und über die Rolle des Menschen. Ein KI-Grundgesetz, wie es die SupraTix GmbH ins Gespräch bringt, wäre ein entscheidender Schritt, unsere veralteten Rechtsgrundlagen an die digitale Realität anzupassen.

  • Chancengleichheit: Wenn KI-Systeme in zentralen Bereichen wie Medizin oder Justiz zum Einsatz kommen, müssen sie denselben „Fehlerspielraum“ wie menschliche Entscheider haben, sonst droht ein Innovationsstopp oder ungerechte Schuldzuweisung.
  • Verantwortungsverteilung: Eine klare Zuweisung von Verantwortung, die nicht einfach in Richtung KI oder Technologieunternehmen abgeschoben wird.
  • Ethische Leitplanken: Ein modernes Grundgesetz müsste die Würde aller „Akteure“ schützen, inklusive neuer Entitäten wie „bio-digitalen Personen“ – sofern diese definiert und anerkannt werden.

Mit einem solchen Ansatz könnten wir verhindern, dass KI sich unkontrolliert entwickelt oder Innovationsbremsen entstehen, weil die Angst vor Fehlern jede Weiterentwicklung erstickt. Dabei bleibt die zentrale Frage: Wie viel Menschlichkeit wollen wir KI zugestehen, und wie viel KI steckt eigentlich im Menschen?

Schlussgedanke

Die gesellschaftliche Diskussion über KI und ihre Rolle im rechtlichen Gefüge ist überfällig. Wenn wir KI-Systeme einerseits verteufeln und andererseits beinahe perfekte Leistungen erwarten, stehen wir uns selbst im Weg – und vergessen zugleich unsere eigene Fehlbarkeit. Ein KI-Grundgesetz könnte diesen Widerspruch auflösen, indem es Chancen und Risiken klug ausbalanciert und die Grundrechte in eine neue, digital geprägte Ära hebt.

Dabei bleibt die spannendste Frage: Was macht den Menschen zum Menschen, wenn wir KI-Systemen immer mehr unserer ureigenen Aufgaben anvertrauen – und sind wir am Ende nicht selbst eine Form von „natürlicher KI“?

Das könnte Sie ebenfalls interessieren

Kontakt

SupraTix GmbH

Bautzner Str. 45-47
01099 Dresden

+49 351 3394 8400

+49 351 3394 8399

https://supratix.com/

info(at)supratix.com

Ansprechpartner

Dipl.-Chem.-Ing. Tobias Göcke

Managing Director

tobias.goecke(at)supratix.com

+49 351 3394 8400

Dipl.-Chem.-Ing. Tobias Göcke