Geför­dert durch:

Promotionstandem 5:

MAEWIN

Maschi­nel­le Ent­schei­dungs­un­ter­stüt­zung in wohl­fahrts­staat­li­chen Insti­tu­tio­nen: Nut­zungs­op­tio­nen, Impli­ka­tio­nen und Regu­lie­rungs­be­dar­fe
Moder­ne Ver­fah­ren der Künst­li­chen Intel­li­genz und des Maschi­nel­len Ler­nens wer­den zuneh­mend in kom­ple­xen Ent­schei­dungs­si­tua­tio­nen ange­wen­det, um mensch­li­che Ent­schei­dun­gen zu unter­stüt­zen oder gar zu erset­zen. Eine maschi­nel­le, evi­denz­ba­sier­te Ent­schei­dungs­un­ter­stüt­zung bie­tet dabei die Chan­ce zur Ver­bes­se­rung der Qua­li­tät der Ent­schei­dun­gen und deren Legi­ti­ma­ti­on. Gleich­wohl geht der Ein­satz maschi­nel­ler Ent­schei­dungs­sys­te­me oft­mals mit dem Ver­lust von Trans­pa­renz und nach­voll­zieh­ba­ren Ent­schei­dungs­kri­te­ri­en ein­her. Ins­be­son­de­re in (wohlfahrts-)staatlichen Anwen­dungs­kon­tex­ten wür­de dies zur Gefähr­dung grund­le­gen­der demo­kra­ti­scher Prin­zi­pi­en füh­ren. Aus­ge­hend von die­sem Span­nungs­feld ver­folgt das Pro­jekt MAEWIN das Ziel, die Chan­cen und Risi­ken auto­ma­ti­sier­ter Text- und Daten­ana­ly­se für evi­denz-gestütz­te Hand­lungs­emp­feh­lun­gen im Feld Sozia­ler Diens­te zu prü­fen. Bei der pro­to­ty­pi­schen Nutz­bar­ma­chung sol­len die demo­kra­ti­schen Grund­prin­zi­pi­en wie Inklu­si­on, Teil­ha­be, Gleich­be­rech­ti­gung und nicht zuletzt auch die Auto­no­mie der Entscheider*innen im Ent­schei­dungs- und Abwä­gungs­pro­zess nach­hal­tig gesi­chert werden.

Algo­rith­mi­sche Sys­te­me der Ent­schei­dungs­un­ter­stüt­zung erhal­ten in immer mehr Berei­chen unse­rer Gesell­schaft Ein­zug. So wer­den inter­na­tio­nal im Bereich des Kin­der­schut­zes zuneh­mend algo­rith­mi­sche Sys­te­me (elec­tro­nic infor­ma­ti­on systems/ decisi­on sup­port sys­tems) zur Detek­ti­on von Kin­des­wohl­ge­fähr­dung erprobt und ein­ge­setzt. Auf­grund der zuneh­men­den Treff­si­cher­heit daten­ge­stütz­ter Ana­ly­sen besteht damit die Mög­lich­keit, mensch­li­ches Ent­schei­den auch in Anwen­dungs­kon­tex­ten zu erset­zen, die kom­ple­xe Bewer­tungs- und Ent­schei­dungs­si­tua­tio­nen umfas­sen. Auch in ande­ren Arbeits­kon­tex­ten Sozia­ler Diens­te ist eine Anwen­dung algo­rith­mi­scher Ent­schei­dungs­fin­dung denk­bar, um bis­lang nicht aus­wert­ba­re Daten­sät­ze (bspw. digi­ta­le Frei­t­ex­te in Klient:innen-Akten) zu erschlie­ßen und damit die Evi­denz und Qua­li­tät von Ent­schei­dun­gen zu erhö­hen. Auf die­se Wei­se könn­ten neue For­men von Wir­kungs­nach­wei­sen wohl­fahrts­staat­li­cher Hand­lungs­op­tio­nen ermög­licht wer­den, wie sie gesell­schaft­lich und poli­tisch zuneh­mend ein­ge­for­dert wer­den. Gleich­zei­tig besteht mit der Ver­la­ge­rung der Ent­schei­dung vom Men­schen zur Maschi­ne die Gefahr, dass sowohl der Pro­zess als auch die Kri­te­ri­en der Ent­schei­dungs­fin­dung intrans­pa­rent wer­den. Wäh­rend das in pri­vat­wirt­schaft­li­chen Anwen­dungs­be­rei­chen bereits pro­ble­ma­tisch ist, wer­den im Kon­text wohl­fahrts­staat­li­chen Han­delns bzw. Ent­schei­dens gegen­über Bürger:innen hier­durch demo­kra­ti­sche Grund­wer­te gefähr­det – ins­be­son­de­re dann, wenn Ent­schei­dun­gen nicht durch gesetz­li­che Vor­ga­ben, kla­re Ver­fah­rens­re­geln, for­ma­le Leis­tungs­vor­aus­set­zun­gen etc. deter­mi­niert sind, son­dern eine fach­li­che Bewer­tung durch Fach­kräf­te erfor­dern, die Spiel­räu­me für pro­fes­sio­nel­les Ermes­sen lässt. Beson­de­res Gewicht erfährt die­se Pro­ble­ma­tik, wenn Ent­schei­dun­gen fol­gen­reich für die Lebens­füh­rung der Bürger:innen sind. Dies trifft regel­mä­ßig für den Bereich wohl­fahrts­staat­li­cher Insti­tu­tio­nen und Sozia­ler Diens­te zu. Damit stellt sich die Fra­ge, wie im Kon­text wohl­fahrts­staat­li­cher Insti­tu­tio­nen zukünf­tig die Poten­tia­le algo­rith­mi­scher Ent­schei­dungs­un­ter­stüt­zung genutzt wer­den kön­nen, um die Wis­sens­ba­sis für Ent­schei­dun­gen und Wir­kungs­nach­wei­se zu erhö­hen, ohne dabei demo­kra­ti­sche Prin­zi­pi­en, Daten­schutz und Pri­vat­heit zu gefährden.

Das Pro­jekt MAEWIN hat zum Ziel, die Chan­cen und Risi­ken auto­ma­ti­sier­ter Ver­fah­ren zur Text- und Daten­ana­ly­se für die Gene­rie­rung evi­denz-gestütz­ter Hand­lungs­emp­feh­lun­gen für das Feld Sozia­ler Diens­te pro­to­ty­pisch zu explo­rie­ren. Der infor­ma­ti­sche Schwer­punkt liegt daher neben der onto­lo­gisch fun­dier­ten Text­ana­ly­se auf dem Ein­satz von Metho­den aus der Argu­men­ta­ti­ons­tech­no­lo­gie zur Ratio­na­li­sie­rung und Kon­tex­tua­li­sie­rung von Hand­lungs­emp­feh­lun­gen. Wo rei­ne „Big-Data“-Verfahren zu einer Ent­mün­di­gung der Entscheider:innen und damit in letz­ter Kon­se­quenz einer Aus­lie­fe­rung der Bürger:innen an undurch­sich­ti­ge Ver­fah­ren der Infor­ma­ti­ons­tech­no­lo­gie füh­ren, soll hier ein Bei­trag zur Erhö­hung der Ent­schei­dungs­qua­li­tät bei gleich­zei­ti­ger voll­stän­di­ger Trans­pa­renz und Ver­läss­lich­keit des Ver­fah­rens ermög­licht wer­den. Auf sozi­al­wis­sen­schaft­li­cher Sei­te geht es unter Ein­be­zie­hung ethi­scher, recht­li­cher und sozia­ler sowie pro­fes­si­ons­theo­re­ti­scher Aspek­te (ELSA/EL­SI-For­schung) um die Unter­su­chung, wie eine Ein­bin­dung algo­rith­mi­scher Ana­ly­sen in den fach­li­chen Ent­schei­dungs­pra­xen mög­lich ist. Neben der Erhö­hung fach­li­cher Wis­sens­ba­sis und Qua­li­tät der Ent­schei­dungs­fin­dung wer­den die Her­stel­lung von Trans­pa­renz bezüg­lich der Ent­schei­dungs­re­geln und –ver­fah­ren adres­siert, um demo­kra­ti­sche Rech­te gegen­über den betrof­fe­nen Bürger:innen zu sichern.

Pro­mo­ti­ons­pro­jekt 1:

Ange­li­ka Mai­er unter­sucht in ihrer Dok­tor­ar­beit, wel­che Infor­ma­tio­nen in Frei­text-Doku­men­ta­tio­nen für Sozialarbeiter:innen und Hilfeplaner:innen in ihrer täg­li­chen Arbeit mit Klient:innen inter­es­sant sind und wie die­se Infor­ma­tio­nen ver­füg­bar gemacht wer­den kön­nen. Im Pro­jekt MAEWIN ist sie für die pro­to­ty­pi­sche Ent­wick­lung eines Sys­tems zur Ent­schei­dungs­un­ter­stüt­zung in der Hil­fe­pla­nung ver­ant­wort­lich. Das Sys­tem basiert auf digi­ta­len Frei­t­ex­ten in Klient:innen-Akten und soll Infor­ma­tio­nen bereit­stel­len, auf deren Grund­la­ge infor­mier­te­re Ent­schei­dun­gen über wei­te­re Hil­fen für und mit Klient:innen getrof­fen wer­den kön­nen. Eben­falls wird durch die Bereit­stel­lung die­ser Infor­ma­tio­nen die Ent­wick­lung von Klient:innen für alle betei­lig­ten Par­tei­en trans­pa­ren­ter gemacht und somit auch die Ent­schei­dun­gen, die auf die­ser Basis getrof­fen wer­den. Es soll zudem explo­riert wer­den, wie und an wel­cher Stel­le ein sol­ches Sys­tem inner­halb einer Ein­rich­tung in der Hil­fe­pla­nung die Evi­denz und Qua­li­tät von Ent­schei­dun­gen erhö­hen und damit neue For­men von Wir­kungs­nach­wei­sen wohl­fahrts­staat­li­cher Hand­lungs­op­tio­nen ermög­li­chen könnte.

Pro­mo­ti­ons­pro­jekt 2:

Dia­na Schnei­der erforscht in ihrer Pro­mo­ti­on, wel­che Sze­na­ri­en für den Ein­satz algo­rith­mi­scher Sys­te­me der Ent­schei­dungs­un­ter­stüt­zung am Bei­spiel der Teil­ha­be­pla­nung für Men­schen mit (dro­hen­der) Behin­de­rung mög­lich sind. Hier­für wer­den ethi­sche, recht­li­che und sozia­le sowie pro­fes­si­ons­spe­zi­fi­sche Aspek­te (ELSA/EL­SI-For­schung) iden­ti­fi­ziert und (nicht-)intendierte Aus­wir­kun­gen algo­rith­mi­scher Sys­te­me dis­ku­tiert. Ziel der Aus­ein­an­der­set­zung wird es sein, eine Explo­ra­ti­on bezüg­lich der Chan­cen und Risi­ken algo­rith­mi­scher Sys­te­me im Feld Sozia­ler Diens­te zu erhal­ten sowie dort Regu­lie­rungs­be­dar­fe zu erken­nen, wo Grund­wer­te der Demo­kra­tie, des Daten­schut­zes und der Pri­vat­heit durch den Ein­satz die­ser Sys­te­me gefähr­det wer­den (könn­ten).

Beteiligte Hochschulen

Projektbeteiligte

Princi­pal Investigator

Prof. Dr. Udo Seelmeyer

Princi­pal Investigator

Pro­mo­ven­din

Diana Schneider

Pro­mo­ven­din