Ein Blick auf Entwicklung und Nutzung von Thomas Stein und Tobias Weiß
Technologie soll den Alltag vereinfachen und es ermöglichen, Ziele mit weniger Aufwand als zuvor zu erreichen. Doch der Anspruch, dass jeder Nutzer die dahinterliegende Komplexität verstehen muss, widerspricht diesem Zweck. Technologie muss funktionieren, ohne dass jeder ein Experte wird.
Im Grunde fängt es meistens damit an, dass auf der einen Seite ein paar Leute sehr viel Zeit und Geld aufgewendet haben, um auf der anderen Seite sehr viel mehr Leuten zu ermöglichen, ihrerseits Zeit und Geld zu sparen. Oder zumindest mit gleichem Aufwand ein besseres Ergebnis zu erzielen. Die mögliche Vorstellung, dass Anwender diese Innovationen auf funktionaler Ebene verstehen sollten, konterkariert diese Absicht. Wenn man Zeit und Geld ins Lernen stecken muss, findet letztendlich nur eine Verschiebung, aber keine Reduzierung des eigenen Aufwandes statt.
Transparenz und Anwendung von Technologie
Um also die gesellschaftliche Produktivität fortschrittlicher Technologie zu gewährleisten, muss sie prinzipiell transparent verständlich sein. Sie darf aber für die sichere Anwendung dieses Verständnis nicht voraussetzen. Das Auto wäre gewiss unbeliebter, wenn man sich immer noch an der Anlasserkurbel das Handgelenk brechen würde. Verfechter des freien Spiels der Kräfte würden argumentieren, dass dies ein Beweis dafür sei, dass der Markt Nutzungsrisiken automatisch mitigiert. Schließlich wurde ab 1920 von fast allen Herstellern der elektrische Anlasser serienmäßig eingebaut.
Die Verantwortung in der Technologie
Man könnte allerdings entgegnen, dass es bis zum Serieneinbau des Anlassers hunderte Tote und tausende Verletzte gab. Es entstand gar ein medizinischer Fachbegriff: „Chauffeur’s Fracture„. Der Einbau des Anlassers wurde schließlich von Cadillac-Gründer Henry Leland nur eingeführt, weil dessen Freund Byron infolge einer Kieferverletzung durch eine zurückschlagende Kurbel starb. Die Verantwortung über Technologiefolgen lässt sich unmöglich bei deren Erfindern, ganz bestimmt nicht bei deren Verwertern und mit Sicherheit nicht bei den Verbrauchern verorten.
Verantwortung und Nutzerverhalten
Wenn wir beim Beispiel Auto bleiben: Man muss das Auto abseits seines Interfaces (Lenkrad, Pedale etc.) nicht verstehen, um ein guter Autofahrer zu sein. Allerdings verstehen die besten profesionellen Rennfahrer das Fahrzeug auf dem Level eines Mechanikers. Aus der Perspektive des Benutzers hat mehr Wissen über die Inner Workings eines Konzepts grundsätzlich positive Auswirkungen auf die Performance. Die große Anzahl der Benutzer wird dieses Niveau aber nicht erreichen, weil sie gar nicht müssen. Man hat also den meisten Menschen mit Führerschein beigebracht, das Auto so konzeptgemäß zu verwenden, dass sie sich selbst und andere nicht verletzen. Trotzdem haben sich um das Konzept Auto herum viele Benutzungsstrategien entwickelt, die vom Hersteller ursprünglich nicht vorgesehen waren. Der Gesellschaft obliegt es nun, diese Nutzungsstrategien zu bewerten: Kann man mit einem Zwölfzylinder im ersten Gang mit 30 die Kölner Ringe hoch- und runterfahren? Sicher. Wurde dieses Fahrzeug dafür entwickelt? Eher nicht. Sollte man das dann trotzdem tun und andere mit Lärm belästigen? Sicher auch nicht.
Regulierungen und technologische Entwicklungen
Der Hersteller hat in unserem Beispiel ein Hochleistungsfahrzeug entwickelt, das eigentlich für eine Rennstrecke gedacht ist und nur aus Homologisationsgründen eine Straßenzulassung erhält. Gleichzeitig nehmen einige Benutzer dieses Fahrzeug und posen damit in den Innenstädten. Der Hersteller ist hier nur noch begrenzt verantwortlich. Die Gesellschaft hingegen muss sich mit der Bewertung dieser Nutzungsstrategien auseinandersetzen.
Was man jedoch im Umkehrschluss daraus nicht ableiten sollte, ist das hyperaktive Erschaffen von Regeln und Gesetzen, die mögliche Folgen einhegen sollen. Wenn man sich die vergangenen Projektionen angenommener Zukünfte ansieht, stellt man fest, dass die Treffsicherheit mit jeder Sekunde in die Zukunft nahezu im Quadrat abnimmt. Epochale Regulierungswerke in den Kindertagen einer Technologie wären kein Problem, wenn sie iterativ und agil wären. In der Realität sind Gesetze aber grobe Granitskulpturen. Deren feingliedrige Form wird erst durch Rechtsanwendung herausgemeißelt. Dieser Prozess ist wesentlich langsamer als die Weiterentwicklung der zu regulierenden Technologie und der Ansprüche der Gesellschaft an deren Funktion. Wir stehen momentan an einem Punkt, wo entweder Untätigkeit oder andererseits Verhinderung als die einzigen beiden Reaktionsschemata verfügbar zu sein scheinen.
Ausblick für Technologie und Bildung
Wo ist nun die Verbindung zum Thema IT? Der Bereich der Künstlichen Intelligenz befindet sich derzeit in den Kinderschuhen seiner Entwicklung. Die Bewertung dieser Technologie schwankt derzeit zwischen „Retter der Welt“ bis hin zu „KI wird uns alle zerstören“.
Entwickler von Large Language Modellen (LLM) werden immer performantere LLMs bauen. Soweit, so erwartbar. Dass dies nun dazu führt, dass Unis und Schulen nicht mehr wissen, wie sie noch Hausarbeiten korrigieren sollen, kann nicht das Problem der Hersteller sein. Gleichzeitig kann man auch von Unternehmen erwarten, sich der Folgen ihres Handelns bewusst zu sein, nach bestem Wissen und Gewissen Risiken zu minimieren und sich dabei kritisch beobachten zu lassen
Endgültige Antworten auf diese impliziten Fragen sind nicht formulierbar, das ist ja geradezu das Wesen dieser Problematik. Es bleibt einem nur, an alle Beteiligten gleichermaßen zu appellieren, das Kind nicht mit dem Bade auszuschütten, noch bevor es nicht wenigstens in der Pubertät ist.