Mensch - Maschine

 

Zum Thema „Mensch - Maschine“ wurde schon immer viel publiziert. In der Vergangenheit ging es vorwiegend um Mensch-Maschinen-Schnittstellen. Immer mehr, und nicht erst seit dem nationalen Digitaltag am 21.11.2017, wird über Maschine gegen Mensch geschrieben. Ausgelöst hat dies unter anderem die viel zitierte Oxford-Studie von Frey und Osborne (2013). Diese enthält eine Rangliste der Berufe, welche die Maschinen den Menschen streitig machen. Die Meinung, dass es unter dem Strich gleich viele Jobs gibt, klingt plausibel. Denkt man daran, dass es mehr Fachkräfte braucht, um die Maschinen zu entwickeln, dann ist die Schlussfolgerung nicht abwegig. Berücksichtigt man, dass das Lösen von seltenen Aufgabenstellungen einer Maschine schwierig beizubringen ist, dann ist auch zu befürchten, dass sich Jobs, welche mittlere Fachkenntnisse erfordern, in den Bereich mit niedrigen Kenntnissen verlagern. Daraus könnte eine Zweiklassengesellschaft entstehen.

Bei der Digitalisierung taucht regelmässig noch ein anderes Problem auf. Von Maschinen wird traditionell ein perfektes Verhalten erwartet. Nach dem Einschalten des Lichts wird es hell. Bleibt es dunkel, dann ist etwas defekt, und eine Reparatur ist nötig. Bei „intelligenten“ Maschinen jedoch, gehört eine bestimmte Fehlerquote von Anfang an zum Konzept. Diese lernenden Systeme werden so parametrisiert bzw. trainiert, dass sie möglichst wenig Fehler machen. Hierfür kommt oft das sogenannte Maximum Likelihood Estimatione (MLE) zur Anwendung.

Wir erläutern MLE an einem einfachen Klassifikationsbeispiel aus der Finanz-Compliance. Eine Maschine soll entscheiden, ob eine Transaktion auffällig ist oder nicht. Die Maschine schätzt aufgrund der Eigenschaften einer Transaktion Ti die Wahrscheinlichkeit Pi, dass Ti auffällig ist. Die Schätzung der Wahrscheinlichkeiten hängt von Parametern Wi ab. Wenn eine menschliche Fachperson n Transaktionen Ti mit Yi = 1 für auffällig und Yi = 0 für unauffällig beurteilt, dann ist die sogenannte Likelihood:

L(… Wi …) = (Y1 * P1 + (1 - Y1) * (1 - P2)) *. (Y2 * P2 + (1 - Y2) * (1 - P2)) * (…) * ...

Die Likelihood drückt aus, wie wahrscheinlich das Beobachtete auftritt unter der Annahme, dass die Wahrscheinlichkeiten Pi mit den Parametern Wi berechnet werden. Wir sehen, dass bei einer perfekten Wahrscheinlichkeitsschätzung die Likelihood den Maximalwert von 1 ergibt, was in der Praxis nicht auftritt. Die Parameter Wi werden so geschätzt, dass L möglichst gross ist. Die Differenz zum Maximalwert entspricht dann den Fehlern. Mit dieser Maximum Likelihood Estimation wird erreicht, dass die Berechnung der Wahrscheinlichkeiten sich möglichst an die Entscheidungen der Fachkraft annähert. In der künstlichen Intelligenz wird die Formel für L, die Theorie, die Parameter Wi, das Modell und Beispieltransaktionen Ti zusammen mit den Beurteilungen Yi Trainingsdaten genannt.

Das Konzept von lernenden Maschinen mit seinen Fehlern unterscheidet sich also fundamental vom Konzept traditioneller Maschinen, von denen ein fehlerfreies Verhalten erwartet wird, auch wenn in der Realität nichts perfekt ist. Kritische Meinungen zu Digitalisierungen erwähnen oft die Fehler von künstlicher Intelligenz. Dass natürliche Intelligenz auch fehlerbehaftet ist, wird aufgrund der Erfahrungen mit traditionellen Maschinen ausgeblendet. Naheliegend ist die Fehlerquote von natürlicher mit derjenigen von künstlicher Intelligenz zu vergleichen. Dabei sind wir wieder beim Thema Maschine gegen Mensch. Wie in einem NZZ-Artikel vom 17.11.2017 (Wie sicher sollten autonome Autos sein, bevor sie auf die Strassen dürfen?) geschrieben wurde, führt dies aber noch zu anderen Problemen. Soll man bei selbstfahrenden Autos die Anzahl Verkehrstoten minimieren anstatt die Likelihood für korrektes Fahren zu maximieren? Wer hat das Recht solche Optimierungsfunktionen festzulegen?

Totalrevision Datenschutzgesetz

Der Vorentwurf des totalrevidierten Datenschutzgesetzes befindet sich derzeit in der Vernehmlassung. Er bezweckt die Stärkung des Datenschutzes durch erhöhte Transparenz bei der Datenbearbeitung und mehr Kontrollmöglichkeiten der betroffenen Personen. Griffige Sanktionen und Handlungspflichten der verantwortlichen Personen sollen dabei die korrekte Umsetzung gewährleisten.

Links: Entwurf, Bericht

Eurospider Information Technology AG
Schaffhauserstrasse 18
8006 Zürich