Geför­dert durch:

Abstract

Schnei­der, Dia­na & Seel­mey­er, Udo (2018, 11.06.): Maschi­nen ent­schei­den? Nor­ma­ti­ve Per­spek­ti­ven in der Ent­wick­lung von KI- und Big-Data-Anwen­dun­gen, Inter­na­tio­na­le Kon­fe­renz TA 18 – Tech­nik­fol­gen­ab­schät­zung und Nor­ma­ti­vi­tät. An wel­chen Wer­ten ori­en­tiert sich die TA? Insti­tut für Tech­nik­fol­gen-Abschät­zung der Öster­rei­chi­schen Aka­de­mie der Wis­sen­schaf­ten, Wien. [Tan­dem 5]

Moder­ne Ver­fah­ren der Künst­li­chen Intel­li­genz (KI) wer­den zuneh­mend in kom­ple­xen, vor­nehm­lich pri­vat­wirt­schaft­li­chen Ent­schei­dungs­si­tua­tio­nen ange­wen­det, um mensch­li­che Ent­schei­dun­gen zu unter­stüt­zen oder gar zu erset­zen. Eine maschi­nel­le, evi­denz­ba­sier­te Ent­schei­dungs­un­ter­stüt­zung bie­tet dabei die Chan­ce zur Ver­bes­se­rung der Qua­li­tät der Ent­schei­dun­gen und deren Legi­ti­ma­ti­on. Gleich­wohl geht der Ein­satz maschi­nel­ler Ent­schei­dungs­sys­te­me oft­mals mit dem Ver­lust von Trans­pa­renz und nach­voll­zieh­ba­ren Ent­schei­dungs­kri­te­ri­en ein­her. Aus­ge­hend von die­sem Span­nungs­feld ver­folgt das Pro­jekt „Maschi­nel­le Ent­schei­dungs­un­ter­stüt­zung in wohl­fahrts­staat­li­chen Insti­tu­tio­nen: Nut­zungs­op­tio­nen, Impli­ka­tio­nen und Regu­lie­rungs­be­dar­fe (MAEWIN)“ das Ziel, die Chan­cen und Risi­ken auto­ma­ti­sier­ter Text- und Daten­ana­ly­se für evi­denz­ge­stütz­te Hand­lungs­emp­feh­lun­gen im Feld Sozia­ler Arbeit zu prü­fen und pro­to­ty­pisch nutz­bar zu machen. Hier­bei wer­den ins­be­son­de­re auch nor­ma­ti­ve Fra­gen danach, wie ein sol­ches Sys­tem aus­se­hen soll und wel­che Erwar­tun­gen es erfül­len müss­te, gestellt. Die zen­tra­len Fra­gen inner­halb des Pro­jek­tes sind daher: Wie kann ein Sys­tem zur Ent­schei­dungs­un­ter­stüt­zung mit­tels KI-Ver­fah­ren zur Ana­ly­se der digi­ta­len Klient*innenakten den Ent­schei­dungs­pro­zess von Sozialarbeiter*innen unter­stüt­zen? Wie müss­te ein sol­ches Sys­tem kon­zi­piert sein, wenn es gleich­zei­tig demo­kra­ti­sche Grund­prin­zi­pi­en nach­hal­tig sichern und die Wer­te der Sta­ke­hol­der berück­sich­ti­gen soll? Und schluss­end­lich: Wie könn­te die Ein­bin­dung des Sys­tems in die fach­li­che Ent­schei­dungs­pra­xis erfolgen?
Die Anwen­dung von KI- und Big-Data-Tech­no­lo­gien inner­halb die­ses sen­si­blen Bereichs wirft grund­le­gen­de nor­ma­ti­ve und ethi­sche Fra­gen auf, ins­be­son­de­re danach, wel­che Wert­vor­stel­lun­gen und Nor­men in sol­chen Ent­schei­dungs­un­ter­stüt­zungs­sys­te­men eta­bliert wer­den müss­ten und wie eine Ent­schei­dung dar­über her­bei­ge­führt wer­den soll­te. Die Ver­wen­dung von KI und Big Data im Feld Sozia­ler Arbeit birgt eine Viel­zahl an Her­aus­for­de­run­gen bzgl. der Inte­gri­tät, Extrak­ti­on und Ana­ly­se der Daten sowie der Inter­pre­ta­ti­on der Ergeb­nis­se, sodass eine häu­fig vor­herr­schen­de „Rhe­to­rik der Objek­ti­vi­tät“ (Craw­ford et al. 2014) ange­zwei­felt wer­den muss. Gleich­zei­tig wird mit Zweig (2018) deut­lich, dass die Beein­flus­sung von Ent­wick­lung und Ent­schei­dungs­pro­zes­sen der algo­rith­mi­schen Ent­schei­dungs­sys­te­me nicht nur pro­ble­ma­tisch, son­dern durch­aus gestalt­bar ist.
Ziel des For­schungs­pro­jek­tes MAEWIN ist es, Ergeb­nis­se der Tech­nik­fol­gen­ab­schät­zung unmit­tel­bar in den Ent­wick­lungs­pro­zess zu inte­grie­ren. Hier­für sol­len im ers­ten Schritt mög­li­che nor­ma­tiv-ethi­sche Pro­blem­fel­der sys­te­ma­tisch auf­ge­zeigt und Lösungs­vor­schlä­ge erör­tert wer­den. Im Hin­blick auf das Tagungs­the­ma wird an die­sem Bei­spiel dis­ku­tiert, inwie­fern ethi­sche Gesichts­punk­te früh­zei­tig in sozio-tech­ni­sche Ent­wick­lungs­pro­jek­te ein­ge­speist wer­den können.

Lite­ra­tur:
Craw­ford, K., Milt­ner, K., & Gray, M. L. (2014): Cri­ti­quing big data: Poli­tics, ethics and epis­te­mo­lo­gy. Inter­na­tio­nal Jour­nal of Com­mu­ni­ca­ti­on, 8, 1663–1672.
Zweig, Katha­ri­na (2018): Wie Maschi­nen irren kön­nen. Ver­ant­wort­lich­kei­ten und Feh­ler­quel­len in Pro­zes­sen algo­rith­mi­scher Ent­schei­dungs­fin­dung. Arbeits­pa­pier. Bertelsmann-Stiftung.