Fachartikel

Warum uns KI näher ist, als wir denken

von Wolfgang Kobek

Bereich: Fachartikel

Menschen machen Fehler – na gut. Das muss nicht schlecht sein, jedenfalls dann nicht, wenn man Fehlerfähigkeit, -akzeptanz und -überwindung als Prozess genauer betrachtet. Fehler zu machen (womöglich auch öfter) und irgendwann aus ihnen zu lernen, ist menschlich. So entstehen Kreativität und Innovation. Einige der größten Erfindungen und Entdeckungen der Geschichte gehen auf Fehler zurück.

Ergänzung menschlicher Kognition
Nicht anders arbeitet im Grunde eine künstliche Intelligenz. Sie basiert auf einem immer weiter präzisierten Fehlerausschluss – und verhält sich so gesehen nicht viel anders als die menschliche Kognition. Das ist die Idee hinter allen KI-orientierten Technologien: die Funktionsweise und die großartigen Resultate der menschlichen Kognition zu verstehen, sie möglichst weitgehend ab- und nachzubilden und zu größtmöglicher Vollständigkeit zu führen. Eine KI ist somit nicht der gesichtslose Gegenpol zu einem fehlerfähigen, aber kreativen, manchmal auch sprunghaften menschlichen Bewusstsein. Sie ist vielmehr eine Ergänzung menschlicher Kognition, besonders in Sachen Geschwindigkeit, Vollständigkeit und Informationsvolumen. Ein universeller Platzhalter oder automatisierter Stellvertreter für Ideen, Fantasie, Kreativität und Innovationsdrang wird auf absehbare Zeit auch eine KI nicht sein können.

Besonders nahe sind uns lernende Systeme dann, wenn Vorurteile, Annahmen, Assoziationen und vermutete Zusammenhänge bereits von Anfang an in die Programmierung der Algorithmen und in die Lernmuster der smarten Systeme implementiert werden – vielleicht auch ganz unbewusst. Die KI startet mit dem, was sie an Informationen bekommt. Ist der Input bereits tendenziös, legt gewisse Schlüsse nahe oder schließt andere Kombinationen aus, weil sie zu Beginn einfach nicht berücksichtigt wurden, „lernt“ die KI unter Umständen auch Fehler mit – und verfestigt sie im schlechtesten Fall. Die eine oder andere Gesichtserkennungssoftware, die aus bestimmten Gesichtszügen Charakter- oder Persönlichkeitsmerkmale ableitet (oder sogar aktuelle Emotionen erkennen soll), hat sich jüngst als signifikant fehleranfällig erwiesen. Eine KI kann also auch Missverständnisse lernen, skalieren und „perfektionieren“.

A und O ist die Sicherung der Datenqualität
Wie lässt sich dieser Spagat aus enormer Skalierbarkeit und dem möglichen Zementieren von unscharfen oder fehlerhaften Annahmen lösen? Das A und O ist hier die Sicherung der Datenqualität. Auch und gerade dieses Ziel erreichen menschlicher Verstand und kognitive Systeme am besten gemeinsam.

Auf der menschlichen Seite ist es entscheidend, die Vielfalt integrierbarer Informationen und Daten zu erkennen, Quellen richtig einzuordnen und einander auch gegenseitig den Blick in die eigene Datenbasis sowie in die Ergebnisse von Datenanalysen zu ermöglichen – innerhalb der definierten Governance. Das fördert team- und unternehmensübergreifendes Arbeiten und schafft Raum für Kreativität, neue Perspektiven und das Überwinden eigener Betriebsblindheit anhand der Eindrücke Anderer.

Wo auch immer Künstliche Intelligenz und Maschinelles Lernen eingesetzt werden, um z.B. Bewerbungen, Darlehensanträge, Versicherungsfälle oder medizinische Anamnesen zu bearbeiten, müssen Organisationen bereit sein, sich selbst, ihre Annahmen und ihre Vorurteile regelmäßig zu hinterfragen und valide zu überprüfen. Menschliche Teams sind in der Lage, auch gefühlte Nuancen zu verstehen und Empathie einzubringen, wo ein Algorithmus schlicht einen Rechenvorgang ausführt.

Aus technologischer Sicht geht es darum zu untersuchen, wie die Technologie uns schon dabei helfen kann, unsere eigenen Verzerrungen zu erkennen, bevor sie in ein lernendes System gelangen (und sich vermehren). Das bedeutet, Werkzeuge zu haben, die das, was wir für gegeben halten, aus allen Perspektiven und in allen möglichen Datenkombinationen zu betrachten – so dass wir auch neue Erkenntnisse in Betracht ziehen können, die bis dahin unentdeckt geblieben wären.

Fazit:
Arbeiten menschlicher Verstand und smarte Technologien zusammen, finden im Idealfall zwei Dinge zueinander: möglichst große Vollständigkeit in den zu untersuchenden Daten sowie in allen (auch völlig neuen) Betrachtungsperspektiven – und eine Vielzahl an intuitiven Bewertungen und Forschungsinteressen, die der menschlichen Fantasie und Vorstellungskraft entspringen. So etabliert sich eine Analyse-Struktur, die Algorithmen zu einer realistischen und transparenten, datenbasierten Entscheidungsbasis „erzieht“ – und nicht zu kaum aussagekräftigen Schein-Analysen, die durch vorgefertigte Abfragewege und mangelnde Assoziation lediglich „Trampelpfade“ durchs Datendickicht anbieten.

Ansehen

Bereitgestellt von:
SVP EMEA Qlik


Diese Inhalte könnten Sie auch interessieren:

Fachartikel

Neuronale Recheneinheit integriert

Spitzenleistung für Künstliche Intelligenz verspricht Intel und ergänzt mit der neuen „Vision Processing Unit“ (VPU) namens Myriad…

Fachartikel

Spezialwissen ausbauen

Die Konzern-IT von Volkswagen startete jetzt drei Entwicklungsbereiche auf einem Quantencomputer von Google. Dabei geht es um…

Fachartikel

AI für die Testgenerierung

Retest, ein junges Softwareunternehmen aus Karlsruhe, bringt mit der neuen Version 2.0 seiner Software für Testautomatisierung…

Zurück