Ein Rückblick auf das Stuttgarter Zukunftssymposium 2019
Wer Fragen über die Zukunft stellt, bekommt schon seit jeher zwei Arten von Antworten: verklärende, utopische einerseits und verstörende, dystopische anderereits. Gerade das Thema Künstliche Intelligenzbietet besonders viel Stoff für Überlegungen beider Art. Einen sachlich fundierten Überblick versprach das Stuttgarter Zukunftssymposium 2019. Es widmete sich konsequent der Frage, wohin unsere Reise mit der KI gehen wird oder wohin sie gehen sollte. Im Fokus stand dabei die Arbeitswelt, in der die Menschen derzeit wohl die konkretesten Auswirkungen von KI für sich erwarten.
Den Anspruch, einen eindeutigen oder gültigen Ausblick auf die KI zu erreichen, sollte und wollte man gar nicht erst formulieren. Das breite Spektrum der Speaker machte deutlich, wie unbestimmt die allernächste Zukunft vor uns liegt – und wie weit sie uns teilweise schon erreicht hat. Denn viele KI-Anwendungen sind längst Realität und wir nutzen sie täglich – unter handlichen Namen wie „googeln“, „Navi“ oder „Alexa“. Dass dabei wichtige ethische Fragen unbeantwortet bleiben liegt auf der Hand.
Autonome Waffen
Etwa im Militär. Hier ist der Innovationsdruck so hoch, dass quasi erst geschossen und dann – eventuell – gefragt wird. Der Autor und Fernsehjournalist Jay Tuck lieferte hierzu ein haarsträubendes Beispiel nach dem anderen, etwa von wildgewordenen Roboter-Geschützen, die bei einer Vorführung plötzlich unkontrolliert um sich schießen. Das anekdotische seines Vortrages sollte nicht darüber hinwegtäuschen, dass wir es hier mit sehr ernsten Fragen zu tun haben – zum Beispiel der nach einer Ächtung von Waffen, die automatisch über Leben und Tod entscheiden.
Fühlende Maschinen
Auch Thomas Metzinger machte klar, dass man sich an sehr grundsätzliche Fragen wird gewöhnen müssen. Was ist Kreativität? Kann ein Computer sie lernen und was macht dann noch unsere Identität aus? Was ist Leid und wie verhielten wir uns einer Maschine gegenüber, die tatsächlich leidensfähig wäre? Und schließlich eine drastische Erkenntnis: Es ist auch deshalb so schwer, Automaten eine Ethik einzubauen, weil wir Menschen aus unterschiedlichsten Motiven handeln und uns kaum auf eine gemeinsame Ethik einigen können. So wird es immer auszuhandeln sein, wessen Ethik gilt. Mit klassischen oder mit neu verteilten Machtrollen und mit unfassbar mächtigen Werkzeugen im Hintergrund.
Mitbestimmung bei Algorithmen
Ein Lied davon – und hier kommen wir zur Arbeitswelt – können die Gewerkschaften singen. Denn bei grundlegenden Entscheidungen zur KI bleiben die betroffenen Belegschaften fast immer ausgeklammert. Ein Pionier auf dem Gebiet der digitalen Mitbestimmung ist Welf Schröter, der vor gefühlten Urzeiten das Forum Soziale Technikgestaltung ins Leben gerufen hat. Über die wechselnden Modebegriffe wie „Cyber“, „Smart“ oder „4.0“ kann er inzwischen nur noch milde lächeln. Er zeigte auf, dass selbst in der deutschen Großindustrie oft erst mit zehn, fünfzehn Jahren Verspätung nachholend digitalisiert wird. Die viereinhalb tausend Mitglieder seines gewerkschaftlichen Forums haben eher damit zu tun, in Betrieben etwas anzuschieben, als zu bremsen. Seine Forderung, hier auf Augenhöhe mitzureden, dürfte in dem von Angst und Hierarchien beherrschten Wirtschaftsleben hierzulande einen schweren Stand haben. Die gesetzlich verankerte Mitbestimmung als Chance zu sehen, kommt vielen im mittleren Management nicht in den Sinn.
Ethische Leitlinien
Ein freundliches Bild der KI-Zukunft zeichnete Tags darauf Dr. Matthias Peissner, vom Fraunhofer IAO: Ethische Grundsätze, wie sie 2019 von der EU-Kommission entwickelt wurden, sollen helfen, die Zusammenarbeit mit KI verantwortungsvoll zu gestalten. Dazu gehören die Achtung der menschlichen Autonomie, Chancengleichheit oder die Erklärbarkeit von KI-Systemen. Der erfolgreichste Anwendungsbereich von KI sei ohnehin nicht die Ersetzung des Menschen, sondern die Kooperation von Mensch und Maschine. Am Beispiel der DSGVO wurde deutlich: Europa besitzt genug kritische Masse, um mit seinen Maßstäben auch global einen Pflock einzuschlagen. Und zunehmend wird eine funktionierende digitale Ethik auch als Wettbewerbsvorteil gegenüber totalitären Systemen wahrgenommen. Ob die hohen Ansprüche eingelöst werden können, steht dabei in den Sternen – die Erklärbarkeit, Verstehbarkeit oder Nachvollziehbarkeit automatischer Entscheidungen ist z.B. durchaus umstritten.
Wie wir uns verändern
Doch damit waren die Themen längst nicht ausgeschöpft: In weiteren Vorträgen ging es um Arbeitszeitreduzierung, Führungskultur und den Mentalitätswandel in der Arbeitswelt. Denn in einer flüssigeren Welt, in der sich Informationen im Sekundentakt ändern können, sind andere Kompetenzen gefragt. Auf den Punkt brachte es der Einwurf eines Zuhörers aus der Auto-Zulieferindustrie, der seine Erfahrungen mit der agilen Arbeitswelt bei Tesla machte. „Da kommen Leut’ rein, die haben blaue Haare, die haben eine ganz andere Arbeitskultur als wir. Und wenn die merken, wir können das nicht, wir sind da nicht flexibel, dann sagen die: Sorry, dann können wir es mit euch nicht machen.“
Software beim Lernen zuschauen
Empfehlenswert – als kleines Bonbon – war schließlich die Vorführung von Prof. Ulrike von Luxburg, (Universität Tübingen). Sie zeigte eine analoge „Software“ aus Briefumschlägen mit Handlungsoptionen, die auf das simple Spiel „Drei gewinnt“ angelernt wurde. Mit genügend Training konnte hier, ganz ohne Elektronik, ein treffsicherer Algorithmus erstellt werden. Kein „Deep Learning“ im neuronalen Netz, aber eine anschauliche Demonstration von ganz einfach lernender Software.
Fazit
Mein Fazit der Veranstaltung: Hochkarätige Hintergrundinformation zu einem Thema, das mit Sicherheit eines der prägendsten für die kommende Generation wird. Einfache Antworten sind hier nicht zu erwarten, aber wer jenseits von Hype und Panik mitreden oder gar mitgestalten will, sollte sich die Nachbereitung auf der Website anschauen und das nächste Stuttgarter Zukunftssymposium im Auge behalten.
//
Richtigstellung: Eine frühere Version des Artikels enthielt eine Formulierung, die die vom Journalisten Jay Tuck referierten Beispiele implizit in den Bereich der Fiktion rückte. Das war nicht die Absicht des Autors. Tatsächlich handelt es sich um journalistisch seriös recherchierte Fakten. Wir entschuldigen uns dafür und haben die Stelle geändert.
Veranstaltet wurde das Stuttgarter Zukunftssymposium von der Integrata-Stiftung, der Giordano-Bruno-Stiftung, dem Weltethos-Institut und weiteren Verbänden. Der Autor hielt einen Vortrag über den Mentalitätswandel in der Arbeitswelt sowie einen Workshop zu digitalen Grundrechten.
Foto: Frau Prof. von Luxburg demonstriert eine selbstlernende Software aus Zetteln in Briefumschlägen
Dass dabei wichtige ethische Fragen unbeantwortet bleiben liegt auf der Hand….
Wichtigste Frage: Wer und was ist der Mensch, woher kommt er und wohin geht er?
Solange da rein materialistisch gedacht wird, kann es auch keine wahre KI Ethik geben.
und das Roboter und KI je wirklich fühlen und empfinden können ist einfach nur lächerlich und dumm. Aber die Menschheit wird sich auf Grund der überzeugenden Hochleistung in der künstlichen Nachahme von Mimik, Gestik und Wahrnehmung menschlicher Gegenüber täuschen lassen. Es werden künstliche raffinierte scheinlebende Roboter und KIs konstruiert werden. Aber nichts hat der Mensch lieber als getäuscht zu werden – wegen der Bequemlichkeit.
> Solange da rein materialistisch gedacht wird, kann es auch keine wahre KI Ethik geben.
Nun, es gibt ja auch noch andere Felder, in denen wir uns nicht einigen können, z.B. politische, philosophische … Das wird also eher schwierig.
> das Roboter und KI je wirklich fühlen und empfinden können ist einfach nur lächerlich und dumm.
Ich weiß, das ist in näherer Zukunft schwer vorstellbar. Aber wenn man sich genau anschaut, was „Fühlen“, „Bewusstsein“ etc. eigentlich ist (man kommt erst langsam dahinter), kommt man nicht umhin, diese Möglichkeit auch einer Nicht-Kohlenstoff-Intelligenz zuzugestehen. Es ist möglich, dass das spezifisch Menschliche dann unsere Vergesslichkeit und Fehlbarkeit sein wird.