0:06

Algorithmen, Computersysteme, Software.

0:09

Unter diesen Wörtern verstehen wir

0:11

Techniken,

0:12

Maschinen oder Geräte,

0:14

die nicht menschlich sind,

0:16

die objektiv handeln

0:17

und ausführen, was wir ihnen vorgeben.

0:21

Ganz so einfach ist es aber nicht.

0:24

Im Gegenteil:

0:25

Es handelt sich um

0:26

menschengemachte Objekte,

0:28

die teilweise

0:29

eklatante Schwächen aufweisen.

0:32

Gesichtserkennungssysteme schaffen es nicht,

0:34

Gesichter von People of Color

0:36

zuverlässig zu identifizieren.

0:38

Statistische Sprachmodelle, die zum Beispiel

0:40

für Suchmaschinen massgeblich sind,

0:42

verstehen etwa Muslima und Muslime

0:44

vorwiegend im Kontext von Terrorismus.

0:47

Das sind nur zwei

0:49

von vielen weiteren Beispielen,

0:51

die aufzeigen,

0:52

dass wir diskriminierungskritische Perspektiven

0:55

auf digitale Prozesse einnehmen müssen.

0:58

Wir wollen uns mit der Frage beschäftigen

1:01

Wie Mythen unsere Vorstellungen

1:04

der Digitalisierung prägen.

1:06

Aber auch mit der Frage,

1:08

wie maschinelle Lernsysteme funktionieren

1:11

und dabei gesellschaftlich

1:13

bereits bestehende Vorurteile verstärken.

1:17

Im ersten Block des Moduls wollen wir

1:19

zwei Technologiemythen herausfordern.

1:23

Es sind Mythen, die uns vorgaukeln,

1:26

dass Technologien neutral sind

1:28

und technologische Entwicklungen

1:31

zwangsläufig zu positivem Wandel führen.

1:35

Im zweiten Block lernen wir,

1:37

wie künstliche Intelligenz funktioniert.

1:39

Dabei betrachten wir nicht nur

1:40

die technische Seite,

1:42

sondern auch,

1:43

wie Menschen sie beeinflussen und ihre Wertungen

1:46

in den Systemen einschreiben.

1:49

Abschliessend diskutieren wir im dritten Block,

1:52

wie wir komplexe Algorithmen untersuchen können,

1:55

um zielgerichtet Kritik anzubringen

1:58

und auf Missstände aufmerksam zu machen.

2:02

Algorithmen lassen sich nicht allein

2:04

durch Vorschriften und Gesetze

2:06

gerechter machen.

2:07

Wir müssen sie besser verstehen

2:09

und kritisch hinterfragen.

2:11

Machen Sie einen ersten Schritt

2:13

mit diesem Modul.