Geför­dert durch:

Nachwuchsforschungsgruppe 6:

Digitale Mündigkeit

„Jeder hat das Recht, sei­ne Mei­nung in Wort, Schrift und Bild frei zu äußern und zu ver­brei­ten und sich aus all­ge­mein zugäng­li­chen Quel­len unge­hin­dert zu unter­rich­ten. Die Pres­se­frei­heit und die Frei­heit der Bericht­erstat­tung durch Rund­funk und Film wer­den gewähr­leis­tet. Eine Zen­sur fin­det nicht statt.“ (Art. 5 Abs.1 Satz 1 Grundgesetz).

Durch die Digi­ta­li­sie­rung von Kom­mu­ni­ka­ti­ons­me­di­en und Social Media hat sich unser Umgang mit Medi­en dra­ma­tisch ver­än­dert. Um der Infor­ma­ti­ons­flut im Inter­net Herr zu wer­den, set­zen digi­ta­le Medi­en­an­bie­ter auf Emp­feh­lungs­sys­te­me, die Inhal­te für Nut­zer per­so­na­li­siert auf­be­rei­ten. Erst­ma­lig grei­fen Algo­rith­men in den öffent­li­chen Dis­kurs ein. Ein befürch­te­ter Effekt im Drei­klang zwi­schen Nut­zern, sozia­len Medi­en und Emp­feh­lungs­sys­te­men ist die Fil­ter­bla­se. Sie bewirkt, dass Nut­zer nur noch Inhal­te sehen, die ihrem Geschmack ent­spre­chen und kei­nen Zugang mehr zur unge­fil­ter­ten Mei­nungs­di­ver­si­tät der Bevöl­ke­rung haben. Durch die­se infor­ma­tio­nel­le Segre­ga­ti­on wird Mei­nungs­bil­dung nach­hal­tig beein­flusst (ver­färbt, ver­fälscht, ver­zerrt) und führt zu Pola­ri­sie­rung von Mei­nun­gen. Die Iden­ti­tät der Urhe­ber von Mei­nun­gen in sozia­len Medi­en ist für Nut­zer nur schwer zu über­prü­fen. Soge­nann­te Social Bots sind Com­pu­ter­pro­gram­me im Social Web, die sich als Men­schen aus­ge­ben. Der Ent­wick­ler ent­schei­det, wie sich die­ses Pro­gramm am Dis­kurs betei­ligt, wie häu­fig, wie nach­dring­lich und wie aus­dau­ernd. Social Bots wer­den ein­ge­setzt, um den öffent­li­chen poli­ti­schen Dis­kurs gezielt durch Mei­nungs­ma­che, Demo­bi­li­sie­rung und Pro­pa­gan­da zu beein­flus­sen. Zen­sur benö­tigt nicht län­ger die Unter­drü­ckung von Mei­nungs­äu­ße­rung, Zen­sur geschieht im Web 2.0 durch Über­flu­tung mit unge­woll­ter und fal­scher Infor­ma­ti­on – mit Fake News.

Das Pro­jekt Digi­ta­le Mün­dig­keit wird sich mit der Fra­ge beschäf­ti­gen, wie der Mei­nungs­bil­dungs­pro­zess in sozia­len Medi­en in der Inter­ak­ti­on aus Mensch, Emp­feh­lungs­sys­tem und Social Bots beschrie­ben, model­liert und vor­her­ge­sagt wer­den kann. Metho­disch wird Agen­ten-basier­te Model­lie­rung ein­ge­setzt, um emer­gen­tes Ver­hal­ten kom­ple­xer Sys­te­me auf­grund indi­vi­du­el­len Ver­hal­tens sicht­bar zu machen. Es ist ein Werk­zeug zum Begrei­fen nicht­li­nea­rer Pro­zes­se, in denen vie­le Betei­lig­ten gleich­zei­tig wir­ken. Für eine phä­no­me­no­lo­gisch hoch­wer­ti­ge Model­lie­rung bedarf es der inter­dis­zi­pli­nä­ren Zusam­men­ar­beit und der Kom­bi­na­ti­on sozio­lo­gi­schen, psy­cho­lo­gi­schen, kom­mu­ni­ka­ti­ons­wis­sen­schaft­li­chen und infor­ma­to­ri­schen Wissens.

Im Pro­jekt „Digi­ta­le Mün­dig­keit“ wird die Metho­den­ent­wick­lung für die Model­lie­rung der hybri­den Mei­nungs­bil­dung maß­geb­lich vor­an­ge­trie­ben. Das Pro­jekt leis­tet einen Bei­trag zur Siche­rung der Demo­kra­tie und zur infor­ma­tio­nel­le Selbst­be­stim­mung der Inter­net­nut­zer, in dem es ein Werk­zeug bie­tet, Mei­nungs­bil­dungs­pro­zes­se in hybri­den sozia­len Netz­wer­ken sicht­bar zu machen und emp­find­li­che Kipp­punk­te im öffent­li­chen Dis­kurs (anhand von Modell­pa­ra­me­tern) iden­ti­fi­ziert, die in qua­li­ta­tiv ande­re, demo­kra­tie­ge­fähr­den­de Sys­tem­zu­stän­de füh­ren kön­nen (Pola­ri­sie­rung, Extre­mi­sie­rung, Xeno­pho­bie, Homophilie).

Pro­jekt-Web­site

Beteiligte Hochschule

Projektbeteiligte

Nach­wuchs­grup­pen­lei­tung

Mit­ar­bei­te­rin

Ver­ant­wort­li­che Professur