Wir sollten wachsamer sein – Pat Christ
– - -
Die Pandemie lässt uns nicht zur Ruhe kommen. Sie wirft ganz neue Fragen auf. Sie verstärkt Tendenzen, die sich schon vor der Corona-Krise abgezeichnet haben. Und sie treibt bestimmte Entwicklungen massiv voran – nicht zuletzt und vor allem jene hin zu künstlicher Intelligenz. Was ist daran gut? Was bedenklich? Inwieweit wird unsere Welt dadurch humaner? Wo droht das Humane auf der Strecke zu bleiben? Wo sollten wir wachsam(er) sein? Wir sprechen hierüber mit Expertinnen und Experten.- – -
Nach einer Querschnittlähmung wieder laufen zu können – welcher Traum für Menschen, die seit Jahren im Rollstuhl sitzen! Das Zusammenspiel von Wille, Algorithmen und Sensoren soll diesen Traum erfüllen helfen. Der Deutschlandfunk berichtete vor knapp zwei Jahren darüber, dass die Neurowissenschaftler Grégoire Courtine und Jocelyn Bloch Lähmungen behandeln, indem sie Elektroden ins Rückenmark implantieren. Algorithmen sollen nach der OP beim Gehen steuern, wann genau welche Stelle im Rückenmark stimuliert wird. Beim 93. Kongress der Deutschen Gesellschaft für Neurologie im Herbst letzten Jahres wurden erste Studienergebnisse vorgestellt.
- – -
Wer sich den Spaß macht, im Internet nach dem Thema „Algorithmen“ zu surfen, findet fast neun Millionen Treffer. Was die immense Relevanz des Themas aufzeigt. Beim Stichwort „Humanität“ spuckt die Suchmaschine nur um die 1,1 Millionen Treffer aus. Die beiden Schlagworte „Algorithmen“ und „human“ zeitigen 870.000 Ergebnisse. Sie führen zum Beispiel zu Marc-Oliver Pahl von der Technischen Universität München und zu dem Onlineauftritt „Mensch-Sein mit Algorithmen“. Dabei geht es, informiert die Webseite, um Verantwortung beim Vorantreiben der digitalen Transformation.
- – -
Mangel an Verantwortungsgefühl, das ist genau der Grund, warum der Blaue Planet heute so immens leidet. Und mit ihm die Lebewesen, die ihn bewohnen. Weil Folgen einst nicht verantwortlich abgeschätzt wurde, konnte es zum aktuellen Umwelt- und Klimadesaster kommen. Ob dies in puncto Digitalisierung anders laufen wird? Es gibt Ansätze, die Hoffnung machen. „So hat die EU-Kommission am 21. April einen Vorschlag zur Regulierung von KI-Systemen vorgestellt“, berichtet Marco Huber, Leiter des Zentrums für Cyber Cognitive Intelligence am Fraunhofer-Institut für Produktionstechnik und Automatisierung.
- – -
Nicht mehr überprüfbar
- – -
Marco Huber ist ein KI-Mann, der die Risiken nicht unter den Teppich kehrt. Computer, die sich mittels maschinellen Lernens selbst programmieren, können nach seinen Worten extrem komplex sein. „Bei besonders komplexen und großen Modellen, etwa bei künstlichen neuronalen Netzen, wären zum Nachvollziehen eine enorme Menge an Rechenschritten zu überprüfen, was kein Mensch mehr leisten kann“, sagt er. Daher wirkten diese Modelle wie eine Blackbox. Die Intransparenz durch die Unmöglichkeit des menschlichen Nachvollzugs sei etwa in der Medizin oder bei der Kreditvergabe schlicht nicht hinnehmbar.
- – -
Viele Menschen macht die Omnipotenz der Informationstechnologien inzwischen Angst. Der aktuelle Regulierungsvorschlag der EU nimmt diese Angst kaum. Kritisch wird Huber zufolge gesehen, dass nur zwischen zwei „Kritikalitätsstufen“ unterschieden wird. „Es gibt durchaus auch Vorschläge einer Eingruppierung anhand von vier oder mehr Stufen, um eine feinere Risikobeurteilung vornehmen zu können“, sagt er. Auch werde vorgeschlagen, die Kritikalität eines KI-Systems anhand zweier Dimensionen zu erfassen: „Dem Schadenspotenzial und der Eintrittswahrscheinlichkeit.“ Je nach Einsortierung wäre dann festzulegen, ob Algorithmen alleine entscheiden dürfen.
für IT im Gesundheitswesen.
– - -
Mehr online
- – -
Aktuelle Kommentare