Autos, die selbstständig fahren gibt es von Google. Die brauchen keinen Fahrer. Aber wer fährt dann einkaufen? Und wer steigt da freiwillig ein und schläft seelenruhig auf dem Weg zur Arbeit, weil er glaubt, dass hier die Elektronik mal ausnahmsweise fehlerfrei läuft?

Menschen haben zunehmend Termindruck, Stress und Entscheidungsprobleme. Dafür gibt es schon personalisierte Organizer, gewissermaßen Aufgabenplaner als Apps, die sogar entscheiden, ob ein Termin sinnvoll ist oder nicht.

Oder diese Websites, die den perfekten Namen fürs eigene Baby ausspucken, falls der Keksfresser schneller kam als Muttis Gehirn denken kann. Auch hier werden dem Automaten wichtige Entscheidungen überlassen.

Koreanische Fernseher haben sich inzwischen als perfekte Zuhörer einen Namen gemacht. Sie haben auch immer öfter gern ein offenes Ohr für ihre Besitzer.

Wenn es so weiter geht, dann gibt es bald Systeme, die sowohl Kreativität als auch Verantwortung übernehmen.

Nun habe ich mir ausgemalt, falls künstliche Intelligenz wirklich intelligent wäre, dann könnte sie ja genauso gut anfangen unsere Probleme zu lösen. Auf Zuruf sozusagen. Der Nutzer könnte sagen: „Hey Computer, mein Google-Auto hatte eine Fehlfunktion während es fünf Kinder überrollt und ist anschließend gegen den Lieblings-Baum meines Polizisten-Nachbarn gefahren ist. Mach mal ’ne Lösung. Ich bin um 3 zurück.“

Wie würde der Computer entscheiden? Besser gefragt, wie löst er das Problem? Oder noch besser gefragt, was ist das Problem, das aus Sicht des Computers gelöst werden muss? An dem Punkt wird es heikel. Denn jeder hat eine andere Sichtweise, insbesondere Computer. Oder dessen Programmierer. Oder die Cloud.

Was der Mensch nicht weiß: Aus Sicht des Computers ist das Problem schon gelöst. Denn er ist ja künstlich intelligent.

Der Computer ‚rechnet‘ demnach vorausschauend. Er berechnet voraus, dass der verantwortliche Halter des Google-Autos Ärger bekommt, und nicht das Auto oder ein Computer. Und schon gar nicht ein im Netz quasi unsterbliches Programm. Somit wissen wir auch, wer den Unfall verursacht hat.

Nein, nicht der Computer. Es war – und das hat der Mensch schon richtig vermutet – das Programm des Autos. Dieses stammt von Google. Und aufgrund der weitreichenden Vernetzung und damit einhergehender Kontrolle infizierte es den Computer, der für die Problemlösung ‚verantwortlich‘ ist.. Somit wird der Computer zum Handlanger von Google. Alles ist Google. — Naja, nicht ganz. Google ist nicht immer Google.

Es gab ein Überschneidungsproblem mit einer Facebook-App. Diese veranlasste eine Vorsortierung der relevanten Daten, um sie an die hauseigenen Google-Funktionen, wie Google+ anzugleichen. Automatisch eben. Das heißt, Informationen (Daten) wurden automatisch re-interpretiert, also neu bewertet und angepasst.

Und jetzt kommt’s: Unser Google-Auto-Besitzer hat nach 12 Bier auf Facebook einfach mehrfach den Dislike-Button („Gefällt mit nicht“) bei den unzähligen Gartenfotos seines Nachbarn gedrückt. Und auf eines dieser Bilder waren im Hintergrund Kinder abgebildet. Da Google nun seinem zahlenden Auto-Kunden alles recht machen will, übertrug es via Schnittstelle gewisse Aufgaben an den Problemlösungscomputer. Dieser berechnete dann anhand der übertragenen Daten die ultimative Lösung mit Hinblick auf die Nutzer-Präferenzen.

In diesem Fall bedeutete es, Baum und Kinder wurden negativ bewertet (Dislike).

Um nun das Leben des Users so angenehm und problemlos, wie irgend möglich zu machen, wurden die Kinder und der Baum einfach „gelöscht“. [Das heißt: eliminiert.] Zumindest aus Sicht des Computers.

Da unser Halter des intelligenten Kraftfahrzeuges wiederum die Folgen daraus zwar als Problem, aber nicht als Folgen erkannte, gab er nur das Problem seinem Computer als Lösung auf. Dieser sendet nun alle persönlichen Aufzeichnungen und Nutzerbewegungen seines „Besitzers“ an die örtliche Polizei.

Aus Sicht des Computers sind nun alle Probleme gelöst. Denn ein Computer oder Programm ist genauso wenig für einen von Menschen initiierten Unfall verantwortlich, wie ein Autohersteller, dessen Fahrzeug zwar den gültigen Sicherheitsstandards entspricht, dessen Fahrer aber besoffen war.

Fazit: Jedes einzelne Programm für sich funktioniert vielleicht tadellos. Allerdings ist für die Kombination dieser Systeme und dessen individuelle Anwendung der Mensch verantwortlich. Mit einem Baseballschläger kann ich auch jemanden erschlagen oder eben Baseball spielen. Wer hat Schuld? Der Baseballschläger? Wäre der Baseballschläger intelligent genug, so könnte er die Frage hier beantworten.

Der Computer hingegen hat, so zynisch, wie es jetzt klingt, im Rahmen seiner zur Verfügung stehenden Informationen korrekt gehandelt. Und das ganz automatisch und ohne böse Absicht.