Künstliche Intelligenz: Chance oder Supergau?

Im Gespräch: Stephanie Borgert

Stephanie Borgert ist Diplom-Informatikerin, Rednerin, Autorin und Beraterin hat mit „Wirtschaft & Ethik“ über die Chancen und Risiken „Künstlicher Intelligenz“ gesprochen. Die Expertin plädiert beim Thema Künstliche Intelligenz für eine kontruktive Auseinandersetzung über Ethik und Verantwortung. In welcher Zukunft wollen wir wie miteinander leben?

Wirtschaft & Ethik: Frau Borgert, aktuell ist überall die Rede von Künstlicher Intelligenz. Was ist eigentlich Künstliche Intelligenz?
Stephanie Borgert: Etwas, das nicht existiert. Aber im Ernst, es gibt keine allgemeingültige Definition und auch unter Informatikern ist man sich nicht einig, wie Künstliche Intelligenz (KI) eindeutig zu definieren ist. Das liegt natürlich schon in der Schwierigkeit den Begriff Intelligenz zu definieren. Der Begriff KI kommt ja aber aus der Informatik und ist dort ein Teilgebiet, das sich mit dem selbstständigen Problemlösen durch Maschinen beschäftigt. Wenn wir von Künstlicher Intelligenz sprechen, meinen wir meistens Maschinelles Lernen. Das ist die sogenannte schwache KI. Eine starke KI wäre die Nachbildung der Vorgänge im menschlichen Gehirn. An dem Punkt sind wir noch lange nicht. Ich zumindest kenne keine Forschungsprojekte, die schon eine Annäherung hinbekommen haben.Und auch Maschinelles Lernen wiederum ist ein Sammelbegriff verschiedener Ansätze. Die spannendsten sind sicher Künstliche Neuronale Netze und deren Möglichkeiten in Bilderkennung und Sprachverarbeitung. Go Zero, die Maschine, die Go und Schach „nur“ auf Basis der Regeln perfekt zu spielen gelernt hat, fällt klar in die Kategorie Künstliche Intelligenz. Genauso wie Anwendungen der Steuerfahndung oder der SCHUFA eingesetzt werden, um Menschen zu klassifizieren oder zu scoren. Gleichzeitig wird oft das Etikett KI auf Programme geklebt, die zwar Algorithmen, aber kein Maschinelles Lernen enthalten. Das ist von außen oft gar nicht zu erkennen.

Ich habe das Gefühl der Mensch entwickelt Dinge ohne zu hinterfragen, ob er sie braucht und ob sie ihm gut tun. Wohl nur weil er es kann. Ist das hier nicht auch so?
Ein klares Ja als Antwort auf Ihre Frage. Es geht von jeher eine Faszination von Technologie und ihren Möglichkeiten aus. Wir Menschen wollen ergründen, ermöglichen und immer weiterkommen. In den beteiligten Berufs- und Interessensgruppen sind die Motive dabei sicherlich verschieden. Die Technikbegeisterten und Programmierer sind hauptsächlich daran interessiert, alles Mögliche umzusetzen und zu beweisen, was so geht. Aus genau dem Grund sind sie oft eben Programmierer geworden. Als Informatikerin weiß ich aus eigener Erfahrung, dass im Normalfall an den Universitäten und in den Ausbildungen nicht über Wechselwirkungen, gesellschaftliche Bedeutung oder ähnliches gesprochen wird. Das „Sichtfeld“ ist damit recht eng. In Wirtschaftsunternehmen sind die häufigsten Motive nach wie vor Effizienzsteigerung und Kostenreduktion. Wenn dann eine KI existiert, die mir genau das verspricht, schaue ich eventuell auch nicht rechts und links auf Wirkungen und Konsequenzen. In diesen Fällen kann man dafür plädieren, dass alle beteiligten Menschen ausreichend mitdenken und im Diskurs miteinander Szenarien besprechen und so potentielle „Schadensfälle“ wie Diskriminierung oder Missbrauchspotential abfangen. Das Herausfordernde am Maschinellen Lernen ist aber, dass wir Effekte bekommen, die niemand im Vorfeld erahnt hat. Diskriminierung durch Algorithmen ist ein sehr aktuelles Beispiel dafür. Amazon hatte einen Recruiting-Algorithmus im Einsatz, der aus den Vergangenheitsdaten des Unternehmens gelernt hat und Empfehlungen für die Kandidatenauswahl gab. Nach einiger Zeit stellte man fest, dass der Algorithmus systematisch Frauen benachteiligt. Er hatte auf Basis der Trainingsdaten, in denen einfach deutlich weniger Datensätze von Frauen enthalten waren, gelernt, dass Männer eher auf eine Stelle bei amazon passen. Diese Art der Überraschung gab und gibt es vielerorten, wenn Künstliche Neuronale Netze im Einsatz sind. Das ist eine Problemstellung, die eine neue Dimension in diese Fragestellung einbringt.

Wenn der Computer oder der Roboter mehr über mich weiß als ich selber, wird es dann nicht gefährlich?
Nein, denn die Maschinen wissen nix. Sie können nicht mehr (aber auch nicht weniger) als wohldefinierte Probleme lösen, die wir Menschen formuliert haben. Ein Computer kann Daten speichern, Muster darin finden, Berechnungen anstellen und Wahrscheinlichkeiten anhand mathematischer Modelle errechnen. Er kann keinen Kontext berücksichtigen, keine Komplexität handhaben und entscheidet auch nichts selbstständig. Es ist immer eine Maschine, die genau das tut, was wir Menschen ihr vorgeben. Die Frage muss also lauten: Wenn wir mittels Maschinen so viel mehr Daten sammeln können, was machen wir dann damit? Ein sehr gutes Beispiel ist das Social-Scoring System in China. In den Provinzen, in denen das System bereits eingesetzt wird, sind unglaublich viele Kameras installiert, die mittels Gesichtserkennung erfassen, wer, was, wo und wann tut. So kann „gutes“ und „schlechtes“ Verhalten kontrolliert werden. Die Sünder, die bei Rot eine Ampel überqueren, werden auf einem elektronischen Pranger zur Schau gestellt. George Orwell hätte es sich nicht gruseliger ausdenken können. Da könnte man also vermuten, der Computer weiß nun viel über die Menschen. Nein, er speichert nur viele Daten. Es ist der Mensch, der sie für bestimmte Zwecke in Verbindung zueinander setzt, auswertet, bewertet und gebraucht. Wenn wir, und das ist die Gefahr in der Sprache die wir zurzeit benutzen, von „der Computer“ und „die KI“ sprechen, distanzieren wir uns. So, als wären die Maschinen die Akteure. Sind sie aber nicht, es sind und bleiben wir Menschen, die etwas tun oder nicht tun.

Wo sehen Sie ethische Probleme? Beispielsweise bei der Kriegsführung mit autonomen Waffen? Ein künstlicher Krieg auf irgendwelchen Schlachtfeldern. Star Wars lässt grüßen.
Ich sehe ethische Aspekte schon viel näher und akuter. Nämlich dort, wo mittels Künstlicher Intelligenz Menschen bewertet werden. Ob bei der Bewerberauswahl in Unternehmen, der SCHUFA oder der Klassifizierung von Langzeitarbeitslosen in Österreich (seit Januar 2019). Es besteht immer die Gefahr der Diskriminierung und zwar nicht vorsätzlich, sondern aufgrund der Datenbasis und des „Lernens“ der Algorithmen. Auch wenn der Algorithmus selber als Maschine ja keine Entscheidungen treffen kann, ist immer wieder nachgewiesen worden, dass die Menschen dann nicht mehr selber denken, sondern der Empfehlung durch den Algorithmus folgen. Die große Frage, die es schnell und bald zu beantworten gilt, lautet: Wie schaffen wir es, Maschinelles Lernen zu entwickeln und zu betreiben, das diskriminierungsfrei und verantwortlich genutzt wird? Und das ist beim besten Willen keine triviale Aufgabe, denn es gilt Wechselwirkungen, „Anders-Nutzungen“ und Missbrauch mitzudenken. Was dann sicher auch dazu führen muss, Künstliche Intelligenz an bestimmten Stellen nicht einzusetzen.

Aktuell habe ich das Gefühl unsere Welt ist fest im Griff einiger Psychopaten die wir teilweise auch noch per Wahlen legitimieren. Künstliche Intelligenz schreibt eigene Texte, wertet Meinungen aus und beeinflusst sie letztlich im Auftrag dieser Psychopaten. Mal ehrlich: Haben Sie davor keine Angst?
Dass „Psychopathen“ an der Spitze einiger Länder und Staaten regieren, ist ein Symptom und zeigt, meiner Meinung nach den Wunsch nach Orientierung. Denn lautstark und teilweise bedingungslos geben sie den Menschen eben genau diese Orientierung. Wofür die jetzt Künstliche Intelligenz einsetzen und nutzen kann ich nur spekulieren. Im US-Wahlkampf 2016 beispielsweise waren es einige Jungs aus Mazedonien, die herausfanden, dass man mit verschärften Anti-Clinton-Meldungen einige Tausend Euro verdienen konnte. Die haben die technischen Möglichkeiten einfach genutzt und sich um die Folgen ihres Handelns vermutlich eher weniger Gedanken gemacht. Diese Aktionen und Möglichkeiten werden im Zweifel immer mehr, und das macht mir große Sorgen. Wir leben im schlimmsten Fall irgendwann so sehr in Filterblasen, dass es uns auch nicht mehr bewusst ist. Gleichzeitig gibt es so hervorragende Möglichkeiten, um sogar Videos zu faken, so dass es nicht mehr ohne weiteres zu erkennen ist. Gerade weil es so viele Möglichkeiten gibt, brauchen wir eine Auseinandersetzung über Ethik und Verantwortung. In welcher Zukunft wollen wir wie miteinander leben? Darüber sollten wir diskutieren, wann und wo immer es geht.

Was meinen Sie: Schafft Künstliche Intelligenz Arbeitsplätze oder schafft sie diese eher ab? Hat zukünftig jeder seinen eigenen Roboter, den er zur Arbeit schickt und der autonom weiß, er muss heute Abend noch die Wäsche bügeln?
Ich glaube, dass wir weiterhin die Tätigkeiten automatisieren werden, die sich automatisieren lassen. Das machen wir so seit wir über EDV sprechen und das wird sich fortsetzen. Damit werden Tätigkeiten, und am Ende auch einige Berufe, wegfallen. Gerade im Niedriglohnsektor wird erwartet, dass zur Gebäudereinigung oder in der Logistik mit noch stärkerem Einsatz von Robotern effizienter und günstiger gearbeitet werden kann. Es gibt Lager, in denen quasi nur noch autonome Gabelstapler arbeiten und die machen einen tollen Job. Darauf müssen wir gesellschaftlich natürlich eine Antwort haben. Denn es trifft die Menschen, die nicht mal eben auf Programmierer oder Data Scientist umschulen können. Gleichzeitig entstehen auch immer neue Berufe und Ausprägungen. Data Scientist beispielsweise ist ein junger Beruf und wird ganz sicher noch mehr Bedeutung finden, denn wir brauchen Spezialisten, die mit den Datenmengen verantwortungsvoll und intelligent umgehen können. Das wir aber wie im Film „Surrogates“ quasi nur noch unser künstliches Ich in die reale Welt schicken, ist pure Science-Fiction und gehört in die Kinos. Und nochmal, es liegt in unserer Hand, die Zukunft zu gestalten. Die Maschinen sollten dabei immer uns dienen und nicht umgekehrt.

Wenn irgendwann ein Algorithmus aus der Berechnung heraus entscheiden und handeln könnte, dass es für das Überleben der Welt besser wäre, die Weltbevölkerung um ein Drittel zu reduzieren. Was dann? Wer soll die Maschine kontrollieren?
Die Frage impliziert, dass eine Maschine entscheiden und handeln kann, und zwar als geschlossenes System in jeder Hinsicht. Da sind wir wieder bei der Science-Fiction und bleiben dort auch hoffentlich. Die Idee, einen Rechner zu bauen, den niemand mehr abschalten oder an der Ausführung seiner „Ideen“ hindern kann, ist alt und macht den Menschen Angst. Diese Angst ist aber, Gott sei Dank, von der Realität sehr weit entfernt.

Bisher waren die Fragen ja schon eher negativ formuliert. Sagen Sie mal was Positives. Mir fällt nichts ein.
Es gibt so viele sinnvolle und wichtige Einsatzbereiche für Roboter und Programme. Denken Sie zum Beispiel an Exoskelette für Arbeiter oder Menschen mit körperlichen Einschränkungen. Oder denken Sie an den Sprachcomputer von Stephen Hawking, den er am Ende nur über seinen rechten Wangenmuskel gesteuert hat. Oder die Möglichkeiten, die sich durch VR (Virtual Reality) ergeben können. In Schulen eingesetzt könnte man Schüler in die Wüste schicken, statt sie Atlanten studieren zu lassen. Kranke oder alte Menschen könnten reisen. Das sind Möglichkeiten, die heute leider noch so gut wie gar nicht genutzt werden.

Einer meiner Liebslingsfilme ist Avatar. Im Film werden auf fremden Planeten Rohstoffe auf Kosten der dortigen „Einwohner“ abgebaut. Auch dort – also im Film – wird die Umwelt massiv zerstört. Alles nur des Profits wegen. Es kann ja durchaus sein, dass in der Zukunft autonome Roboter andere Planeten beherbergen um seltene Erden abzubauen. Was braucht es, um das Ganze ins Sinnvolle zu rücke?.
Eine neue, verantwortungsvolle Bedeutung von Wirtschaft. Der oberste Gedanke darf nicht sein „Wir müssen den Shareholder Value möglichst gut bedienen“, denn dann zielt alles Führen und Managen auf Effizienzsteigerung und Kostenreduktion ab. Letztendlich ist es eine Frage der mentalen Modelle. Wie verstehen wir Wirtschaft, Unternehmen, Digitalisierung & Co.? Mit welchem Bild schauen wir auf die Menschen? Welche Zukunft wollen wir gestalten. Und ich wiederhole mich, es braucht den stetigen Diskurs darüber. Nur wenn der lebendig bleibt, nehmen wir Einfluss und können Dinge verbessern und verändern.

Geben Sie unseren Lesern mal eine Vision. Wo stehen wir in 20 Jahren in Bezug auf Künstliche Intelligenz?
Meine persönliche Vision: in der Gesellschaft herrscht ein grundsätzliches Verständnis über Informatik im allgemeinen und KI im Besonderen. Algorithmen, die Menschen bewerten sind, egal ob im öffentlichen Raum oder in Unternehmen, transparent und nachvollziehbar. Der Mythos KI ist aufgelöst. Der Roboter als Kollege wird langsam normal, auch außerhalb der Werkshallen, in den Büros. Da der Umgang mit Maschinellem Lernen so aufgeklärt ist, wird es immer schwerer missbräuchlich zu agieren. Es findet sich blitzschnell jemand, der aufdeckt und aufklärt. Die Menschen haben sich dafür entschieden, Nachhaltigkeit vor Profitmaximierung zu setzen und ihr oberstes Ziel ist die Gesundhaltung (und -werdung) der Erde. Dazu nutzen sie Technologie, wo es Sinn macht. Und wenn sie nicht gestorben sind …

Vielen Dank für das sehr spannende Gespräch zu einem äußerst interessantem Thema – ein Thema, das die Unternehmen ganz sicher noch eine große Zeitspanne lang begleiten wird.

Das Gespräch führte Jürgen Linsenmaier

In ihrem neuen Buch analysiert Bestseller-Autorin Stephanie Borgert die häufigsten Organisationskrankheiten, zeigt deren Ursachen auf und gibt Hilfestellungen zur Behandlung. Ob Kontrollzwang, Methodengläubigkeit, verknöcherte Organisationsstrukturen oder Besprechungsdiarrhö: Auf ihre bekannte wertschätzend provokative Weise hält die Autorin Organisationen den Spiegel vor, um gelebte Glaubenssätze, Vorurteile und Stereotype zu hinterfragen.

Bei amazon oder im Buchhandel >>

 

Stephanie Borgart
Stephanie Borgert

Stephanie Borgert ist Diplom-Informatikerin, Rednerin, Autorin und Beraterin, spricht, schreibt und berät zu Führung und Organisationsentwicklung in unserer komplexen Welt. In ihrem gerade erschienen fünften Buch „Die kranke Organisation“ analysiert sie althergebrachte Managementmethoden der Unternehmenspraxis und liefert Behandlungsansätze. Aktuell promoviert sie zum Thema „Ethische Aspekte der Künstlichen Intelligenz in HR-Prozessen“.

https://www.stephanieborgert.de