Mensch - Maschine

 

Zum Thema „Mensch - Maschine“ wurde schon immer viel publiziert. In der Vergangenheit ging es vorwiegend um Mensch-Maschinen-Schnittstellen. Immer mehr, und nicht erst seit dem nationalen Digitaltag am 21.11.2017, wird über Maschine gegen Mensch geschrieben. Ausgelöst hat dies unter anderem die viel zitierte Oxford-Studie von Frey und Osborne (2013). Diese enthält eine Rangliste der Berufe, welche die Maschinen den Menschen streitig machen. Die Meinung, dass es unter dem Strich gleich viele Jobs gibt, klingt plausibel. Denkt man daran, dass es mehr Fachkräfte braucht, um die Maschinen zu entwickeln, dann ist die Schlussfolgerung nicht abwegig. Berücksichtigt man, dass das Lösen von seltenen Aufgabenstellungen einer Maschine schwierig beizubringen ist, dann ist auch zu befürchten, dass sich Jobs, welche mittlere Fachkenntnisse erfordern, in den Bereich mit niedrigen Kenntnissen verlagern. Daraus könnte eine Zweiklassengesellschaft entstehen.

Bei der Digitalisierung taucht regelmässig noch ein anderes Problem auf. Von Maschinen wird traditionell ein perfektes Verhalten erwartet. Nach dem Einschalten des Lichts wird es hell. Bleibt es dunkel, dann ist etwas defekt, und eine Reparatur ist nötig. Bei „intelligenten“ Maschinen jedoch, gehört eine bestimmte Fehlerquote von Anfang an zum Konzept. Diese lernenden Systeme werden so parametrisiert bzw. trainiert, dass sie möglichst wenig Fehler machen. Hierfür kommt oft das sogenannte Maximum Likelihood Estimatione (MLE) zur Anwendung.

Wir erläutern MLE an einem einfachen Klassifikationsbeispiel aus der Finanz-Compliance. Eine Maschine soll entscheiden, ob eine Transaktion auffällig ist oder nicht. Die Maschine schätzt aufgrund der Eigenschaften einer Transaktion Ti die Wahrscheinlichkeit Pi, dass Ti auffällig ist. Die Schätzung der Wahrscheinlichkeiten hängt von Parametern Wi ab. Wenn eine menschliche Fachperson n Transaktionen Ti mit Yi = 1 für auffällig und Yi = 0 für unauffällig beurteilt, dann ist die sogenannte Likelihood:

L(… Wi …) = (Y1 * P1 + (1 - Y1) * (1 - P2)) *. (Y2 * P2 + (1 - Y2) * (1 - P2)) * (…) * ...

Die Likelihood drückt aus, wie wahrscheinlich das Beobachtete auftritt unter der Annahme, dass die Wahrscheinlichkeiten Pi mit den Parametern Wi berechnet werden. Wir sehen, dass bei einer perfekten Wahrscheinlichkeitsschätzung die Likelihood den Maximalwert von 1 ergibt, was in der Praxis nicht auftritt. Die Parameter Wi werden so geschätzt, dass L möglichst gross ist. Die Differenz zum Maximalwert entspricht dann den Fehlern. Mit dieser Maximum Likelihood Estimation wird erreicht, dass die Berechnung der Wahrscheinlichkeiten sich möglichst an die Entscheidungen der Fachkraft annähert. In der künstlichen Intelligenz wird die Formel für L, die Theorie, die Parameter Wi, das Modell und Beispieltransaktionen Ti zusammen mit den Beurteilungen Yi Trainingsdaten genannt.

Das Konzept von lernenden Maschinen mit seinen Fehlern unterscheidet sich also fundamental vom Konzept traditioneller Maschinen, von denen ein fehlerfreies Verhalten erwartet wird, auch wenn in der Realität nichts perfekt ist. Kritische Meinungen zu Digitalisierungen erwähnen oft die Fehler von künstlicher Intelligenz. Dass natürliche Intelligenz auch fehlerbehaftet ist, wird aufgrund der Erfahrungen mit traditionellen Maschinen ausgeblendet. Naheliegend ist die Fehlerquote von natürlicher mit derjenigen von künstlicher Intelligenz zu vergleichen. Dabei sind wir wieder beim Thema Maschine gegen Mensch. Wie in einem NZZ-Artikel vom 17.11.2017 (Wie sicher sollten autonome Autos sein, bevor sie auf die Strassen dürfen?) geschrieben wurde, führt dies aber noch zu anderen Problemen. Soll man bei selbstfahrenden Autos die Anzahl Verkehrstoten minimieren anstatt die Likelihood für korrektes Fahren zu maximieren? Wer hat das Recht solche Optimierungsfunktionen festzulegen?

Totalrevision Datenschutzgesetz

Seit dem 15. September 2017 liegen Botschaft und Entwurf des Bundes­rates für ein revidiertes Daten­schutz­gesetz auf dem Tisch. In einer ersten Etappe nahm das Parlament wichtige An­passungen ans EU-Recht vor (Weiter­entwicklung des Schengen-Besitz­standes). Die zweite, um­strittenere Etappe befindet sich seit September 2019 in den parlamentarischen Beratungen. Mit der Vorlage soll der Datenschutz durch erhöhte Transparenz bei der Datenbearbeitung und mehr Kontrollmöglichkeiten der betroffenen Personen gestärkt werden. Griffige Sank­tionen und Handlungs­pflichten der ver­ant­wortl­ichen Personen sollen die korrekte Um­setzung gewähr­leisten.

Links: datenrecht.ch

Eurospider Information Technology AG
Winterthurerstrasse 92
8006 Zürich

 

Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden.
Weitere Informationen Ok Ablehnen