Das Problem mit Algorithmen oder warum uns künstliche Intelligenz betrifft
03.01.2020 02:08
Das Problem mit Algorithmen oder warum uns künstliche Intelligenz betrifft
03.01.2020 02:08
Das Problem mit Algorithmen oder warum uns künstliche Intelligenz betrifft
Algorithmen dringen immer mehr in unser Leben - in unseren Alltag - nur merken wir es meistens nicht.
Algorithmen gelten als Jobkiller und viele Menschen haben Angst, dass sie über Menschen und deren Zukunft entscheiden werden. Solche Entscheidungen werden schon heute z.B. bei Kreditanträgen von Computern getroffen und können auch z.B. gerichtliche Entscheidungen maßgeblich beeinflussen - quasi die gerichtliche Entscheidung bewirken.
Es lohnt sich, einen Blick das Innere künstlicher Intelligenz zu werfen. KI - Künstliche Intelligenz, wird immer mehr überall Einzug halten und Entscheidungen über uns, mit uns, für uns und gegen uns treffen. Wir sollten wissen, wo die Stärken und Schwächen künstlicher Intelligenz liegen.
Ich möchte darüber so schreiben, dass auch Nicht-Akademiker verstehen, was KI (Künstliche Intelligenz) bedeutet.
Der Beitrag soll als kleines Werkzeug dienen, damit sich der Leser einmischen kann - und - damit wir als Christen bessere Entscheidungen treffen können - sowohl mit als auch ohne Computer.
Der zu erstellende Beitrag soll aber nicht zur Selbstunterhaltung dienen. Ich würde mich daher freuen, wenn sich interessierte User kurz melden (Handzeichen genügt 😜 ), damit ich Bescheid weiß.
Algorithmen gelten als Jobkiller und viele Menschen haben Angst, dass sie über Menschen und deren Zukunft entscheiden werden. Solche Entscheidungen werden schon heute z.B. bei Kreditanträgen von Computern getroffen und können auch z.B. gerichtliche Entscheidungen maßgeblich beeinflussen - quasi die gerichtliche Entscheidung bewirken.
Es lohnt sich, einen Blick das Innere künstlicher Intelligenz zu werfen. KI - Künstliche Intelligenz, wird immer mehr überall Einzug halten und Entscheidungen über uns, mit uns, für uns und gegen uns treffen. Wir sollten wissen, wo die Stärken und Schwächen künstlicher Intelligenz liegen.
Ich möchte darüber so schreiben, dass auch Nicht-Akademiker verstehen, was KI (Künstliche Intelligenz) bedeutet.
Der Beitrag soll als kleines Werkzeug dienen, damit sich der Leser einmischen kann - und - damit wir als Christen bessere Entscheidungen treffen können - sowohl mit als auch ohne Computer.
Der zu erstellende Beitrag soll aber nicht zur Selbstunterhaltung dienen. Ich würde mich daher freuen, wenn sich interessierte User kurz melden (Handzeichen genügt 😜 ), damit ich Bescheid weiß.
Kommentare
Schreib auch du einen Kommentar
(Nutzer gelöscht) 03.01.2020 02:43
Bluehorse, ich meld mich mal besser nicht, hab kein Whatsap und noch Windows7. Kein I-Phone und keine " Blabbermamsel" mit Namen " Alexa". Muss mich noch um alles selbst kümmern.
Bluehorse 03.01.2020 02:46
Guter Hinweis. Es gibt sicher viele, die ähnliche Vorurteile haben. Wenn Du denkst, dass Dich wegen mangelnder Technikausstattung künstliche Intelligenz nicht betrifft, irrst Du.
(Nutzer gelöscht) 03.01.2020 02:48
Das weiss ich, sie ist Allgegenwärtig, auch im Moment. Hallo " Gläserner Bruder".
Bluehorse 03.01.2020 03:15
Danke für Deine Mitteilung. Jedoch: Im Prinzip möchte ich Meldungen in jedweder Form haben, im Sinne "das interessiert mich". Meldungen im Sinne "das interessiert mich nicht", sind überflüssig.
(Nutzer gelöscht) 03.01.2020 05:21
Dann lass mal "hören" @Bluehorse - mein Handzeichen 👍
(Nutzer gelöscht) 03.01.2020 09:14
👍das interessiert mich @Bluehorse
(Nutzer gelöscht) 03.01.2020 10:07
Ich bin auch ganz 👂
Bluehorse 03.01.2020 10:54
OK, danke.
Ich lege dann mal langsam los. Es wird zu mehreren Sachbeiträgen kommen. Begriffe wie Algorithmus, DataMining, DataScience, Grundwahrheit, Heuristik, Fairnessmaß etc. werde ich natürlich auch erklären. Sollte etwas nicht klar sein, bitte ich um Rückfragen.
=========
Zur Einführung in die Problematik folgendes:
Vielleicht kennt jemand den Film Minority Report mit Tom Cruise. Tom Cruise spielt darin einen Polizisten, der durch Zusammenarbeit mit hellseherisch begabten Personen (Precogs) Personen identifizieren kann, die in Zukunft Straftaten begehen. Noch bevor es zu den Straftaten kommt, kann Tom Cruise die Menschen verhaften. Diese bizarre Geschichte des Science-Fiction Autors Philipp Dick schon 1956 als Kurzgeschichte entwickelte, ist Realität geworden - nur leider fehlt die Präzision der vorhersagenden Maschinerie.
Die USA beherbergen ca. 20% aller weltweit offiziell gemeldeten Inhaftierten. Afro-Amerikaner haben ein 6-fach höheres Risiko, inhaftiert zu werden, als Weiße. Es ist ein Justizsystem wünschenswert, welches jeden latenten Rassismus vermeidet - und das möglichst zu niedrigsten Kosten.
Dies führte bereits zur Erstellung von sogenannten Rückfälligkeitsvorhersagealgorithmen. Diese geben eine Einschätzung ab, wie stark rückfallgefährdet schon früher straffällig gewordene Person sei.
Was ist ein Algorithmus?
Ein Algorithmus ist für jeden erfahrenen Programmierer eine ausreichend detaillierte und systematische Handlungsanweisung, um ein mathematisches Problem zu lösen, so dass bei jeder korrekten Implementierung (Übersetzung in einen Code) der Computer für jede korrekte Inputmenge den korrekten Output berechnen kann.
Was ist Implentierung?
Damit meint man einen Arbeitsprozess mit dem Ergebnis, dass ein Algorithmus als Code vorliegt. Algorithmen können auch als Text oder als Pseudo-Code vorlegen. Letzteres ist eine strukturierte Kurzform, mit der man sich schon recht nahe an der Implementierung befindet, aber für Menschen noch gut lesbar ist.
Die o.g. Systeme basieren auf einer automatisierten Analyse der Eigenschaften von Kriminellen, die oft bei denen zu finden sind, die rückfällig werden und selten bei denen, die nicht rückfällig werden. Die Forschung zeigte, dass eines dieser vielfach verwendeten algorithmischen Entscheidungssysteme dabei bis zu 30% und bei scheren Straftaten sogar bis zu 75% Fehlurteile produzierte. Von allen Personen, die der Algorithmus in eine Hochrisikogruppe stuft, werden bei einfachen Straftaten 3 von 10 Personen nicht straffällig und bei schweren Straftaten ist es nur jeder 4. von 10 Personen eine schwere Straftat. Einfaches Raten, dass die allgemein bekannte Rückfälligkeit berücksichtigt, wäre nicht viel schlechter gewesen und hätte den Vorteil gehabt, dass man sich des reinen Ratens bewusst gewesen wäre. Es stellt sich die Frage: Was also geht schief, wenn Maschinen Menschen bewerten?
Hilfreich ist hier das noch junge Gebiet der Sozioinformatik, in dem Methoden der Psychologie, Soziologie, Wirtschaftswissenschaften, der statistischen Physik und der Informatik genutzt werden.
Es wird geforscht, wie wir Menschen unsere komplexe Welt besser verstehen können. Dazu dienen Data Minings (die Nutzbarmachung von Daten). Dazu werden riesige Datenmengen durchforstet auf der Suche nach Zusammenhängen. Hierbei sind Kenntnisse der Wissenschaftstheorie wichtig, die vielen Informatikern fehlt. Und so ist es nicht verwunderlich, dass viele Informatiker und Ingenieure sich zu sicher sind, dass die Methoden die reine und objektive Wahrheit aus den Daten hervorholen und im maschinellen Lernen, der Grundlage für künstliche Intelligenz, das Heil bei der Lösung komplexer Probleme sehen.
Und wenn es irgendwas gibt, dass uns unterstützt, gleichzeitig Arbeitsschritte zu optimieren und gute Erfolge zu maximieren, dann sollten wir definitiv dieses "irgendwas" kennenlernen.
Fortsetzung folgt...
Ich lege dann mal langsam los. Es wird zu mehreren Sachbeiträgen kommen. Begriffe wie Algorithmus, DataMining, DataScience, Grundwahrheit, Heuristik, Fairnessmaß etc. werde ich natürlich auch erklären. Sollte etwas nicht klar sein, bitte ich um Rückfragen.
=========
Zur Einführung in die Problematik folgendes:
Vielleicht kennt jemand den Film Minority Report mit Tom Cruise. Tom Cruise spielt darin einen Polizisten, der durch Zusammenarbeit mit hellseherisch begabten Personen (Precogs) Personen identifizieren kann, die in Zukunft Straftaten begehen. Noch bevor es zu den Straftaten kommt, kann Tom Cruise die Menschen verhaften. Diese bizarre Geschichte des Science-Fiction Autors Philipp Dick schon 1956 als Kurzgeschichte entwickelte, ist Realität geworden - nur leider fehlt die Präzision der vorhersagenden Maschinerie.
Die USA beherbergen ca. 20% aller weltweit offiziell gemeldeten Inhaftierten. Afro-Amerikaner haben ein 6-fach höheres Risiko, inhaftiert zu werden, als Weiße. Es ist ein Justizsystem wünschenswert, welches jeden latenten Rassismus vermeidet - und das möglichst zu niedrigsten Kosten.
Dies führte bereits zur Erstellung von sogenannten Rückfälligkeitsvorhersagealgorithmen. Diese geben eine Einschätzung ab, wie stark rückfallgefährdet schon früher straffällig gewordene Person sei.
Was ist ein Algorithmus?
Ein Algorithmus ist für jeden erfahrenen Programmierer eine ausreichend detaillierte und systematische Handlungsanweisung, um ein mathematisches Problem zu lösen, so dass bei jeder korrekten Implementierung (Übersetzung in einen Code) der Computer für jede korrekte Inputmenge den korrekten Output berechnen kann.
Was ist Implentierung?
Damit meint man einen Arbeitsprozess mit dem Ergebnis, dass ein Algorithmus als Code vorliegt. Algorithmen können auch als Text oder als Pseudo-Code vorlegen. Letzteres ist eine strukturierte Kurzform, mit der man sich schon recht nahe an der Implementierung befindet, aber für Menschen noch gut lesbar ist.
Die o.g. Systeme basieren auf einer automatisierten Analyse der Eigenschaften von Kriminellen, die oft bei denen zu finden sind, die rückfällig werden und selten bei denen, die nicht rückfällig werden. Die Forschung zeigte, dass eines dieser vielfach verwendeten algorithmischen Entscheidungssysteme dabei bis zu 30% und bei scheren Straftaten sogar bis zu 75% Fehlurteile produzierte. Von allen Personen, die der Algorithmus in eine Hochrisikogruppe stuft, werden bei einfachen Straftaten 3 von 10 Personen nicht straffällig und bei schweren Straftaten ist es nur jeder 4. von 10 Personen eine schwere Straftat. Einfaches Raten, dass die allgemein bekannte Rückfälligkeit berücksichtigt, wäre nicht viel schlechter gewesen und hätte den Vorteil gehabt, dass man sich des reinen Ratens bewusst gewesen wäre. Es stellt sich die Frage: Was also geht schief, wenn Maschinen Menschen bewerten?
Hilfreich ist hier das noch junge Gebiet der Sozioinformatik, in dem Methoden der Psychologie, Soziologie, Wirtschaftswissenschaften, der statistischen Physik und der Informatik genutzt werden.
Es wird geforscht, wie wir Menschen unsere komplexe Welt besser verstehen können. Dazu dienen Data Minings (die Nutzbarmachung von Daten). Dazu werden riesige Datenmengen durchforstet auf der Suche nach Zusammenhängen. Hierbei sind Kenntnisse der Wissenschaftstheorie wichtig, die vielen Informatikern fehlt. Und so ist es nicht verwunderlich, dass viele Informatiker und Ingenieure sich zu sicher sind, dass die Methoden die reine und objektive Wahrheit aus den Daten hervorholen und im maschinellen Lernen, der Grundlage für künstliche Intelligenz, das Heil bei der Lösung komplexer Probleme sehen.
Und wenn es irgendwas gibt, dass uns unterstützt, gleichzeitig Arbeitsschritte zu optimieren und gute Erfolge zu maximieren, dann sollten wir definitiv dieses "irgendwas" kennenlernen.
Fortsetzung folgt...
Bluehorse 03.01.2020 11:50
Computer berechnen mit Hilfe von Algorithmen einen Risikoscore. Dieser ist vergleichbar mit einer Schadensfreiheitsklasse in der Autoversicherung. Dort sind Personen mit hohem Risiko in einer Klasse zusammengefaßt, solche mit niedrigem Risiko in einer anderen. Und jetzt passiert im Anschluß an die Erstellung eines Risikoscores etwas Merkwürdiges. Obwohl sie (noch) nichts gemacht haben, werden sie so behandelt, wie die, die schon früher in diese Klasse einsortiert wurden. Waren diese Personen in mehrere Unfälle verwickelt, bezahlt man mehr. Waren sie in weniger Unfälle verwickelt, bezahlt man weniger. Bei der Einstufung wird man also nicht nach seinem tatsächlichen Verhalten beurteilt, sondern diese Einstufung hängt davon ab, wem man ähnelt. Das Verfahren ist insofern gerecht, weil alle Fahrer ab 18 Jahren ihren Führerschein bekommen - gleich starten - und ihre spätere Klassifikation nur von ihrem eigenen Fahrverhalten abhängig ist und nicht mehr von dem ihrer Generation.
Ist nicht alles so technisch, dass wir einfach keinen Gestaltungsspielraum haben, uns einmischen können? Es entsteht schnell ein Gefühl des Kontrollverlustes, denn wir sehen meist keine Chance, die Algorithmen zu verändern, die unser Leben mitbestimmen. Von Google über Amazon ist alles so undurchsichtig. Firmen und auch Regierungen benutzen auch fehlerhafte Algorithmen und wir sollten uns einmischen, wo wir es können. Voraussetzung ist nur, dass Ansprechpartner/Entscheidungsträger bekannt und greifbar sind.
Damit wir uns einbringen können, ist es fundamental wichtig zu verstehen, wie die Maschinerie hinter der künstlichen Intelligenz funktioniert und dabei insbesondere die des maschinellen Lernens. Der Prozess ist weit weniger objektiv und selbstgesteuert, als man es im Allgemeinen vermutet. Die Maschinerie ist justierbar....
Aber wo sollten wir aufpassen und die angebliche Richtigkeit von Ergebnissen versuchen nachzuvollziehen und in Frage zu stellen? Im Wesentlichen sind es nur die Systeme, die
- über Menschen entscheiden oder
- über Ressourcen, die Menschen betreffen, oder die
- solche Entscheidungen treffen, die die gesellschaftliche Teilhabemöglichkeiten von Personen ändern.
Die Fokussierung auf ethisch relevante algorithmische Entscheidungssysteme werden Algoskop genannt.
Das bedeutet: Systeme, die entscheiden, ob eine Schraube defekt ist und aus der Produktion genommen werden soll, fallen nicht darunter. Definitiv dazu gehören Systeme im medizinischen Bereich; darunter wiederum solche weniger, die uns freiverkäufliche Produkte empfehlen als solche, die über Therapien entscheiden.
Zunächst sollte man sich die Frage stellen: Was soll das System entscheiden? Wenn es weder direkt noch indirekt das menschliche Wohl betrifft, ist es für uns weniger relevant.
Wenn es jedoch um das menschliche Wohl geht, dann ist die Qualität der Entscheidungen durch die Maschinerie von den folgenden Erfolgsfaktoren abhängig:
- von der Qualität und Quantität der eingehenden Daten
- von den grundlegenden Annahmen über die Natur der Fragestellung
- von dem, was die Gesellschaft eigentlich für eine gute Empfehlung hält.
Zum letzten Punkt: Damit Algorithmen eine solche Moral befolgen können, muß für eine Maschine meßbar gemacht werden, wie sehr eine Entscheidung dieser Moral entspricht. Nur dann kann der Computer versuchen, Entscheidungen zu optimieren.
Das ist nicht einfach. Wenn eine Software genutzt werden soll, um Kindern Schulen zuzuteilen, dass ihre Schulwege möglichst kurz sind, stellen sich mehrere Fragen:
Soll der Schulweg im Durchschnitt klein sein? Oder soll für kein Kind ein bestimmtes Maximum überschritten werden? Die Messbarmachung wird Operationalisierung genannt.
Was sind das für Daten, die verwendet werden?
a) ideale Fahrzeiten oder reale?
b) Sind Fußwege zur Bushaltestelle berücksichtigt?
Operationalisierung, das Modell des Problems und Algorithmus müssen zusammenpassen. (= Das OMA-Prinzip). Der prozessuale Weg der Entwicklung und des Einsatzes algorithmischer Entscheidungssysteme ist lang und seine Verantwortlichkeiten verteilt sich i.d.R. auf viele Schultern, so dass es nachher schwierig wird, diese Verantwortung nur bei einer Person zu verorten. Es wird vielleicht an dieser Stelle schon sichtbar, dass es nur wenige Stellen gibt, an der technisches Wissen wirklich entscheidend wichtig ist.
Fortsetzung folgt....
Ist nicht alles so technisch, dass wir einfach keinen Gestaltungsspielraum haben, uns einmischen können? Es entsteht schnell ein Gefühl des Kontrollverlustes, denn wir sehen meist keine Chance, die Algorithmen zu verändern, die unser Leben mitbestimmen. Von Google über Amazon ist alles so undurchsichtig. Firmen und auch Regierungen benutzen auch fehlerhafte Algorithmen und wir sollten uns einmischen, wo wir es können. Voraussetzung ist nur, dass Ansprechpartner/Entscheidungsträger bekannt und greifbar sind.
Damit wir uns einbringen können, ist es fundamental wichtig zu verstehen, wie die Maschinerie hinter der künstlichen Intelligenz funktioniert und dabei insbesondere die des maschinellen Lernens. Der Prozess ist weit weniger objektiv und selbstgesteuert, als man es im Allgemeinen vermutet. Die Maschinerie ist justierbar....
Aber wo sollten wir aufpassen und die angebliche Richtigkeit von Ergebnissen versuchen nachzuvollziehen und in Frage zu stellen? Im Wesentlichen sind es nur die Systeme, die
- über Menschen entscheiden oder
- über Ressourcen, die Menschen betreffen, oder die
- solche Entscheidungen treffen, die die gesellschaftliche Teilhabemöglichkeiten von Personen ändern.
Die Fokussierung auf ethisch relevante algorithmische Entscheidungssysteme werden Algoskop genannt.
Das bedeutet: Systeme, die entscheiden, ob eine Schraube defekt ist und aus der Produktion genommen werden soll, fallen nicht darunter. Definitiv dazu gehören Systeme im medizinischen Bereich; darunter wiederum solche weniger, die uns freiverkäufliche Produkte empfehlen als solche, die über Therapien entscheiden.
Zunächst sollte man sich die Frage stellen: Was soll das System entscheiden? Wenn es weder direkt noch indirekt das menschliche Wohl betrifft, ist es für uns weniger relevant.
Wenn es jedoch um das menschliche Wohl geht, dann ist die Qualität der Entscheidungen durch die Maschinerie von den folgenden Erfolgsfaktoren abhängig:
- von der Qualität und Quantität der eingehenden Daten
- von den grundlegenden Annahmen über die Natur der Fragestellung
- von dem, was die Gesellschaft eigentlich für eine gute Empfehlung hält.
Zum letzten Punkt: Damit Algorithmen eine solche Moral befolgen können, muß für eine Maschine meßbar gemacht werden, wie sehr eine Entscheidung dieser Moral entspricht. Nur dann kann der Computer versuchen, Entscheidungen zu optimieren.
Das ist nicht einfach. Wenn eine Software genutzt werden soll, um Kindern Schulen zuzuteilen, dass ihre Schulwege möglichst kurz sind, stellen sich mehrere Fragen:
Soll der Schulweg im Durchschnitt klein sein? Oder soll für kein Kind ein bestimmtes Maximum überschritten werden? Die Messbarmachung wird Operationalisierung genannt.
Was sind das für Daten, die verwendet werden?
a) ideale Fahrzeiten oder reale?
b) Sind Fußwege zur Bushaltestelle berücksichtigt?
Operationalisierung, das Modell des Problems und Algorithmus müssen zusammenpassen. (= Das OMA-Prinzip). Der prozessuale Weg der Entwicklung und des Einsatzes algorithmischer Entscheidungssysteme ist lang und seine Verantwortlichkeiten verteilt sich i.d.R. auf viele Schultern, so dass es nachher schwierig wird, diese Verantwortung nur bei einer Person zu verorten. Es wird vielleicht an dieser Stelle schon sichtbar, dass es nur wenige Stellen gibt, an der technisches Wissen wirklich entscheidend wichtig ist.
Fortsetzung folgt....
(Nutzer gelöscht) 03.01.2020 11:55
Garten verstehe ich so, dass ihn der Blog trotzdem interessiert. Mir geht es ähnlich. Ich bin nicht auf dem neuesten Stand, kann mit der Technik irgendwie nicht Schritt halten und möchte das auch nicht unter allen Umständen. Das Thema interessiert mich dennoch sehr.
Bluehorse 03.01.2020 12:42
Ich hoffe, dass ich verständlich schreibe; sonst bitte nachfragen.
=========================================
Exkurs:
Nehmen wir mal an, dass Wolfgang S., 31 Jahre alt, keine Familie, ein Eigenbrötler ist und weder Computer, noch Handy sein eigen nennen kann. Er lebt von Sozialhilfe in einem kleinen Appartement. Um sich für die anstehende Karnevalfeier als Frau zu kostümieren, kauft er sich einen BH und bezahlt mit EC-Karte.
Parallel werden die Daten verschiedener Psychiatrien auf europäischer Ebene zusammengeführt und ein Algorithmus kommt zu dem Ergebnis, dass es in Europa 9 gefährliche Soziopathen gibt, die bereits durch Schwerverbrechen inhaftiert wurden. Diese Soziopathen weisen folgende Merkmale auf: a) technikfeindliche Einstellung b) keine dauerhafte Beschäftigung c) alleinstehend d) über 25 Jahre alt e) keine Geschwister f) unübliche Neigung zum Tragen von Frauenkleidung.
Über die europäische Datenvernetzung wird mit einem Such-Algorithmus nach den Personen gesucht, die in allen Punkten a-f Übereinstimmung mit den Soziopathen aufweisen. So stößt man auf Wolfgang S. als mit hoher Wahrscheinlichkeit möglichen Soziopathen.
Im Karneval trinkt Wolfgang S. zu viel Alkohol und fällt einer Frau, der er bekannt ist, auf. Sie ist seine Nachbarin und hat sich schon öfter über ihn geärgert. Sie ruft die Polizei und behauptet von Wolfgang belästigt zu sein. Normalerweise würde die Polizei das unter Nichtigkeit abhaken. Jedoch bei Blick in ihren Computer stellen sie fest, dass er zu einem Personenkreis gehört, welcher soziopathischer Handlungsweisen höchst verdächtig ist.
Die Polizei nimmt Wolfgang S. in Gewahrsam und führt ihn einem Psychiater einer Klinik vor. Da sich Wolfgang S. ungerecht behandelt und vom Psychiater provoziert fühlt, beginnt Wolfgang S. zu randalieren, schlägt um sich. Daraufhin wird er zwangseingewiesen...
Zusammenführung von Daten bei Bank, Jobcenter und europäischen Psychiatrien macht es möglich. Algorithmen treffen die Entscheidung. Menschen bestätigen, dass alle Risikofaktoren auch real zutreffen. Es steht fest: zu 90% ist es als sicher anzunehmen, dass Wolfgang S. ein Soziopath ist, dessen kriminellen Handlungen nur noch nicht aufgedeckt sind.
=========================================
Exkurs:
Nehmen wir mal an, dass Wolfgang S., 31 Jahre alt, keine Familie, ein Eigenbrötler ist und weder Computer, noch Handy sein eigen nennen kann. Er lebt von Sozialhilfe in einem kleinen Appartement. Um sich für die anstehende Karnevalfeier als Frau zu kostümieren, kauft er sich einen BH und bezahlt mit EC-Karte.
Parallel werden die Daten verschiedener Psychiatrien auf europäischer Ebene zusammengeführt und ein Algorithmus kommt zu dem Ergebnis, dass es in Europa 9 gefährliche Soziopathen gibt, die bereits durch Schwerverbrechen inhaftiert wurden. Diese Soziopathen weisen folgende Merkmale auf: a) technikfeindliche Einstellung b) keine dauerhafte Beschäftigung c) alleinstehend d) über 25 Jahre alt e) keine Geschwister f) unübliche Neigung zum Tragen von Frauenkleidung.
Über die europäische Datenvernetzung wird mit einem Such-Algorithmus nach den Personen gesucht, die in allen Punkten a-f Übereinstimmung mit den Soziopathen aufweisen. So stößt man auf Wolfgang S. als mit hoher Wahrscheinlichkeit möglichen Soziopathen.
Im Karneval trinkt Wolfgang S. zu viel Alkohol und fällt einer Frau, der er bekannt ist, auf. Sie ist seine Nachbarin und hat sich schon öfter über ihn geärgert. Sie ruft die Polizei und behauptet von Wolfgang belästigt zu sein. Normalerweise würde die Polizei das unter Nichtigkeit abhaken. Jedoch bei Blick in ihren Computer stellen sie fest, dass er zu einem Personenkreis gehört, welcher soziopathischer Handlungsweisen höchst verdächtig ist.
Die Polizei nimmt Wolfgang S. in Gewahrsam und führt ihn einem Psychiater einer Klinik vor. Da sich Wolfgang S. ungerecht behandelt und vom Psychiater provoziert fühlt, beginnt Wolfgang S. zu randalieren, schlägt um sich. Daraufhin wird er zwangseingewiesen...
Zusammenführung von Daten bei Bank, Jobcenter und europäischen Psychiatrien macht es möglich. Algorithmen treffen die Entscheidung. Menschen bestätigen, dass alle Risikofaktoren auch real zutreffen. Es steht fest: zu 90% ist es als sicher anzunehmen, dass Wolfgang S. ein Soziopath ist, dessen kriminellen Handlungen nur noch nicht aufgedeckt sind.
Bluehorse 03.01.2020 13:42
Der wichtige Unterschied zwischen Korrelation und Fakten
Man kann z.B. die Anzahl von Scheidungen (1998 - 2011) betrachten und erkennt, wie sich die Anzahl über Jahre verändert. Dann kann man eine zweite Datenreihe damit vergleichen: Und wenn diese sich gleichartig verhält, beide Werte gemeinsam steigen oder sinken, spricht man von einer Korrelation. Wie hoch die Korrelation ist, wird mit Hilfe mathematischer Formeln gemessen.
Alle Daten werden nach ihrer Korrelation mit der ausgewählten Eigenschaft sortiert. Und so wurde in einer Studie festgestellt, der Anteil von Frauen mit einem Abschluß in Ingenieurwissenschaften korreliert stark mit der Scheidungsrate und des Anteils an Ingenieurinnen. Ist das ein starkes Anzeichen dafür, dass Frauen in Männerberufen Ehen zerstören? Oder eher dafür, dass verlassene Frauen danach ein Ingenieurstudium erfolgreich abschließen?
Nein und Nein. Es handelt sich einfach um eine statistisch auftretende, zufällige Korrelation. Ohne eine Überprüfung möglicher kausaler Zusammenhänge darf diese Korrelation weder zur Vorhersage der Scheidungsrate basierend auf der Abschlußrate der Frauen in den Ingenieurswissenschaften noch umgekehrt benutzt werden.
Eine reine Hypothese, die nicht getestet wurde, gilt nicht als Fakt. Erst mehrere Hypothesen, die in Experimenten nicht widerlegt werden können, werden in einer Theorie zusammengefaßt - und erst dann, wenn diese Theorie zu Vorhersagen führt, die sich in der freien Natur (oder im Labor) als korrekt erweisen und dies mehrfach, beginnen wir langsam von einem Fakt zu sprechen. Das ist wissenschaftliche Methode.
Dazu gibt es auch ein Buch von Tyler Vigen "spurious Correlations" (= zweifelhafte Korrelationen).
Verwender von Algorithmen des maschinellen Lernens ignorieren diese wissenschaftliche Methode, wenn sie deren Resultate direkt als Vorhersage zukünftigen Verhaltens nutzen.
Man kann z.B. die Anzahl von Scheidungen (1998 - 2011) betrachten und erkennt, wie sich die Anzahl über Jahre verändert. Dann kann man eine zweite Datenreihe damit vergleichen: Und wenn diese sich gleichartig verhält, beide Werte gemeinsam steigen oder sinken, spricht man von einer Korrelation. Wie hoch die Korrelation ist, wird mit Hilfe mathematischer Formeln gemessen.
Alle Daten werden nach ihrer Korrelation mit der ausgewählten Eigenschaft sortiert. Und so wurde in einer Studie festgestellt, der Anteil von Frauen mit einem Abschluß in Ingenieurwissenschaften korreliert stark mit der Scheidungsrate und des Anteils an Ingenieurinnen. Ist das ein starkes Anzeichen dafür, dass Frauen in Männerberufen Ehen zerstören? Oder eher dafür, dass verlassene Frauen danach ein Ingenieurstudium erfolgreich abschließen?
Nein und Nein. Es handelt sich einfach um eine statistisch auftretende, zufällige Korrelation. Ohne eine Überprüfung möglicher kausaler Zusammenhänge darf diese Korrelation weder zur Vorhersage der Scheidungsrate basierend auf der Abschlußrate der Frauen in den Ingenieurswissenschaften noch umgekehrt benutzt werden.
Eine reine Hypothese, die nicht getestet wurde, gilt nicht als Fakt. Erst mehrere Hypothesen, die in Experimenten nicht widerlegt werden können, werden in einer Theorie zusammengefaßt - und erst dann, wenn diese Theorie zu Vorhersagen führt, die sich in der freien Natur (oder im Labor) als korrekt erweisen und dies mehrfach, beginnen wir langsam von einem Fakt zu sprechen. Das ist wissenschaftliche Methode.
Dazu gibt es auch ein Buch von Tyler Vigen "spurious Correlations" (= zweifelhafte Korrelationen).
Verwender von Algorithmen des maschinellen Lernens ignorieren diese wissenschaftliche Methode, wenn sie deren Resultate direkt als Vorhersage zukünftigen Verhaltens nutzen.
(Nutzer gelöscht) 03.01.2020 15:12
Blauespferd
Ich möchte darüber so schreiben, dass auch Nicht-Akademiker verstehen, was KI (Künstliche Intelligenz) bedeutet.
👍 DANKE !
DAS BETRIFFT MICH...😅😅😅
Ich möchte darüber so schreiben, dass auch Nicht-Akademiker verstehen, was KI (Künstliche Intelligenz) bedeutet.
👍 DANKE !
DAS BETRIFFT MICH...😅😅😅
Bluehorse 03.01.2020 15:21
Fein. Ich freue mich, wenn auch für Dich alles gut verständlich ist. Wenn wir jetzt z.B. in anderen Blogs lesen, wie Deutschland / Europa in ca. 10-20 Jahren angeblich aussehen wird, können wir besser erkennen, wie unseriös (oder naiv?) solche Meinungen sind.
(Nutzer gelöscht) 03.01.2020 15:31
Der technische Fortschritt schreitet unaufhaltsam voran. Am stärksten sind die Auswirkungen auf die Fertigung. Ohne zusätzliches Wachstum wird in dem Bereich wohl schon 2025 jede dritte heutige Stelle von Robotern und Künstlicher Intelligenz übernommen. Stark ist der Effekt der Digitalisierung aber auch in Verwaltung, Verkehr, Handel und Logistik.
Das Tempo der Veränderungen wird sich in der nächsten Dekade erheblich beschleunigen. Die Beratungsgesellschaft Boston Consulting Group (BCG) hat jetzt ausgerechnet, dass der technische Wandel hierzulande bis zum Jahr 2025 fast acht Millionen Beschäftigte erfassen dürfte.
Das muss nicht in jedem Fall bedeuten, dass diese Jobs ganz verschwinden und die Berufstätigen arbeitslos werden. Das Berufsbild jedoch könnte sich von Grund auf wandeln. Aus einer bekannten Tätigkeit wird binnen weniger Jahre eine vollkommen andere. „Niemand kann derzeit mit Gewissheit sagen, ob am Ende der Entwicklung insgesamt mehr oder weniger Arbeitskräfte gebraucht werden als heute. Sicher ist aber, dass ein großer Teil der Beschäftigten neue Kompetenzen benötigen wird, um im Arbeitsmarkt der Zukunft gefragt zu sein
Das Tempo der Veränderungen wird sich in der nächsten Dekade erheblich beschleunigen. Die Beratungsgesellschaft Boston Consulting Group (BCG) hat jetzt ausgerechnet, dass der technische Wandel hierzulande bis zum Jahr 2025 fast acht Millionen Beschäftigte erfassen dürfte.
Das muss nicht in jedem Fall bedeuten, dass diese Jobs ganz verschwinden und die Berufstätigen arbeitslos werden. Das Berufsbild jedoch könnte sich von Grund auf wandeln. Aus einer bekannten Tätigkeit wird binnen weniger Jahre eine vollkommen andere. „Niemand kann derzeit mit Gewissheit sagen, ob am Ende der Entwicklung insgesamt mehr oder weniger Arbeitskräfte gebraucht werden als heute. Sicher ist aber, dass ein großer Teil der Beschäftigten neue Kompetenzen benötigen wird, um im Arbeitsmarkt der Zukunft gefragt zu sein
(Nutzer gelöscht) 03.01.2020 15:51
Wow, Bluehorse, von Herzen Dank für Deine "Investitionen" an Zeit und Geistesarbeit in diesen sozusagen augenöffnenden Blog! Aufgrund Deines didaktischen Geschickes: Du bist nicht zufällig Dozent in diesem oder angrenzenden Fachgebieten?
(Nutzer gelöscht) 03.01.2020 15:57
HABE EINEN VORTRAG VOR NICHT SO LANGER ZEIT .....
ÜBER DEIN BLOG THEMA.....
MUSS MAL NACHSCHAUEN OB ICH IHN NOCH FINDE....
ER BEHAUPTET DAS IN DEN NÄCHSTEN 10 JAHREN SICH SO VIEL VERÄNDERN WIRD....
WIE ES IN DEN LETZTEN 300 JAHRE NICHT.....
????????
IN CHINA SOLLEN ANGEBLICH JEDES JAHR BIS ZU 4 MILLIONEN IHREN ARBEITSPLATZ VERLIEREN...
ÜBER DEIN BLOG THEMA.....
MUSS MAL NACHSCHAUEN OB ICH IHN NOCH FINDE....
ER BEHAUPTET DAS IN DEN NÄCHSTEN 10 JAHREN SICH SO VIEL VERÄNDERN WIRD....
WIE ES IN DEN LETZTEN 300 JAHRE NICHT.....
????????
IN CHINA SOLLEN ANGEBLICH JEDES JAHR BIS ZU 4 MILLIONEN IHREN ARBEITSPLATZ VERLIEREN...
(Nutzer gelöscht) 03.01.2020 16:00
Wie sich die Automatisierung, Roboterisierung und der Ausbau der Künstlichen Intelligenz auf die Gesellschaft auswirken wird, ist noch weitgehend Science Fiction oder Futurologie. Jetzt überbieten sich die Zukunftsdeuter der technischen Entwicklung mit Zahlen, welche Arbeiten automatisiert und wie viele Menschen im Zuge der Entwicklung auf dem Arbeitsmarkt zu Überschüssigen werden könnten. Die Rede ist von bis zu 50 Prozent der Arbeitsplätze, die von den Maschinen übernommen werden könnten, wenn es nicht gleich darum geht, dass KI-Systeme den Menschen überflügeln, ihn beherrschen oder ihn als Leiter, als "bootstrapping", hinter sich lassen und das Ende der Menschheit besiegeln könnten.
Jetzt hat McKinsey Global Institute nicht ganz so spekulativ und apokalyptisch eine Studie vorgelegt, die schätzt, dass bis 2030 bis zu 800 Millionen Menschen ihren Job an die Konkurrenz der intelligenten oder irgendwie besseren, jedenfalls billigeren Maschinen übergeben müssten.
Letztes Jahr war schon eine Studie vorgelegt worden, in der 800 Jobs und 200 Arbeitstätigkeiten auf ihre Ersetzbarkeit durch Maschinen untersucht wurden. Angeblich könnten mit bereits demonstrierten technischen Systemen 45 Prozent der Tätigkeiten, für die Menschen bezahlt werden, von Maschinen übernommen werden.
Und bei 60 Prozent könnten jeweils 30 Prozent oder mehr der fundamentalen Arbeitsabläufe automatisiert werden. Allerdings könnten nur 5 Prozent der Berufe vollständig automatisiert werden. Der Effekt der Automatisierung soll sich sehr unterschiedlich in den Ländern auswirken. So würde sich die Automatisierung stärker in Ländern wie China oder Indien als in den westlichen Ländern auswirken.
Jetzt hat McKinsey Global Institute nicht ganz so spekulativ und apokalyptisch eine Studie vorgelegt, die schätzt, dass bis 2030 bis zu 800 Millionen Menschen ihren Job an die Konkurrenz der intelligenten oder irgendwie besseren, jedenfalls billigeren Maschinen übergeben müssten.
Letztes Jahr war schon eine Studie vorgelegt worden, in der 800 Jobs und 200 Arbeitstätigkeiten auf ihre Ersetzbarkeit durch Maschinen untersucht wurden. Angeblich könnten mit bereits demonstrierten technischen Systemen 45 Prozent der Tätigkeiten, für die Menschen bezahlt werden, von Maschinen übernommen werden.
Und bei 60 Prozent könnten jeweils 30 Prozent oder mehr der fundamentalen Arbeitsabläufe automatisiert werden. Allerdings könnten nur 5 Prozent der Berufe vollständig automatisiert werden. Der Effekt der Automatisierung soll sich sehr unterschiedlich in den Ländern auswirken. So würde sich die Automatisierung stärker in Ländern wie China oder Indien als in den westlichen Ländern auswirken.
pieter49 03.01.2020 16:21
''Gläserne Bruder'' ...schrieb @Garten17 an dir, lieber @Bluehorse, und das trifft zu !!!
Für dich und für mich und alle Leser !!!
...und nicht Leser !!!
Datenschutz ist ein Wort ohne Bedeutung ...?!
Denke ich?!
Für dich und für mich und alle Leser !!!
...und nicht Leser !!!
Datenschutz ist ein Wort ohne Bedeutung ...?!
Denke ich?!
(Nutzer gelöscht) 03.01.2020 16:59
Beängstigend !!!
Bluehorse 03.01.2020 18:31
Pieter49, noch sind nicht alle Behörden untereinander sowie mit Banken total vernetzt. Mit meinem erfundenen Beispiel wollte ich u.a. nur deutlich machen, dass wir überall Spuren hinterlassen, sobald wir mit einer Datenbank in Kontakt kommen. Behörden, Krankenhäuser, Ärzte, Schulen, Banken, Unternehmen …. alle sammeln Daten in Datenbanken, nicht nur Google, Facebook & co etc..
Noch sind wir nicht gläsern.
Ein wachsendes Problem ist der Mangel an Bildung. Wir treffen in den vorgenannten Organisationen zunehmend auf Menschen, die zu wenig Ahnung haben, was sie tun. Damit meine ich auch, dass uns Ergebnisse von Korrelationen als Fakten verkauft werden können, wenn wir selbst den Unterschied nicht kennen und nicht wissen, wie Korrelationen zustande kommen.
Honesty
zum Thema Zukunftsforschung. Würdest Du mal bei Mc Kinsey nachfragen, wie die Zukunftsstudie entstanden sei, dann würde man Dir sagen: Auf der Basis von Algorithmen
Noch sind wir nicht gläsern.
Ein wachsendes Problem ist der Mangel an Bildung. Wir treffen in den vorgenannten Organisationen zunehmend auf Menschen, die zu wenig Ahnung haben, was sie tun. Damit meine ich auch, dass uns Ergebnisse von Korrelationen als Fakten verkauft werden können, wenn wir selbst den Unterschied nicht kennen und nicht wissen, wie Korrelationen zustande kommen.
Honesty
zum Thema Zukunftsforschung. Würdest Du mal bei Mc Kinsey nachfragen, wie die Zukunftsstudie entstanden sei, dann würde man Dir sagen: Auf der Basis von Algorithmen
(Nutzer gelöscht) 03.01.2020 18:45
SO WOLLEN SIE DEN MENSCHEN DAZU MANIPULIEREN......SEIN HIRN NICHT MEHR ZU BENUTZEN....
DAS DER COMPUTER SCHLAUER WIRD ALS DER MENSCH.....😉
IHR ZIEL IST SOMIT DEN WEG VORZUBEREITEN ZUR NWO.....
WIR BRAUCHEN KEINEN GOTT MEHR..
DAS CHRISTENTUM AUSLÖSCHEN....
ER EXISTIERT NICHT.....
WIR MACHEN UNS SELBER ZU GÖTTERN...
WIR KÖNNEN UNS SELBER ERLÖSEN ....
LUZIFER SOLL IHR GOTT WERDEN.....
DAS IST DIE NEW AGE RELIGION 😉
GOTT BESCHÜTZT UNS!!!
DANKE BLAUESPFERD 😉 FÜR DEINE
AUFKLÄRUNG 👍
DAS DER COMPUTER SCHLAUER WIRD ALS DER MENSCH.....😉
IHR ZIEL IST SOMIT DEN WEG VORZUBEREITEN ZUR NWO.....
WIR BRAUCHEN KEINEN GOTT MEHR..
DAS CHRISTENTUM AUSLÖSCHEN....
ER EXISTIERT NICHT.....
WIR MACHEN UNS SELBER ZU GÖTTERN...
WIR KÖNNEN UNS SELBER ERLÖSEN ....
LUZIFER SOLL IHR GOTT WERDEN.....
DAS IST DIE NEW AGE RELIGION 😉
GOTT BESCHÜTZT UNS!!!
DANKE BLAUESPFERD 😉 FÜR DEINE
AUFKLÄRUNG 👍
pieter49 03.01.2020 18:58
@Bluehorse, vielen Dank für den ergänzende Information!
Außerdem finde ich das wir @Honesty's Statement um 18:45 Uhr auch ernst nehmen sollten!
Außerdem finde ich das wir @Honesty's Statement um 18:45 Uhr auch ernst nehmen sollten!
Bluehorse 03.01.2020 19:44
Was macht der Computer eigentlich? Lösung von Problemen = Beantwortung von Fragen mit Hilfe eines Algorithmus'
Wir Menschen haben die Fähigkeit zum Bilden von Algorithmen und nutzen diese, auch wenn es uns meist nicht bewuss ist, dass wir einen Algorithmus gebildet haben.
-------------------------------------------------------------------------------
Wir erinnern uns - meine Definition ganz oben...zur Wiederholung in Kurzform = Algorithmen sind klare und systematische Handlungsanweisungen für die Lösung eines mathematisch beschreibbaren Problems, so dass der Computer bei korrekter Implementierung (= Übersetzung in einen Code) für jede korrekte Inputmenge den korrekten Output berechnen kann.
---------------------------------------------------
Input: 30 Bücher sind in die Bücherwand einzusortieren. Kriterium 1 = Unterscheidung nach den Merkmalen Belletristik bzw. Fachliteratur. Dann bitte noch alphabetisch ordnen.
Es entstehen zwei Stapel, die jeweils alphabetisch unterteilt sind. ===> voilá, ein Suchalgorithmus wurde in unserem Gehirn gebildet und diente als Vorlage für die Sortierung.
Wissenschaftler behaupten, dass im Wesentlichen Menschen und Computer genau die selben Fragen beantworten können - oder an den gleichen Fragen scheitern (Church-Turing-Hypothese)
So können Mensch wie auch Computer den kürzesten Weg von A nach B berechnen, jedoch kann weder Mensch noch Computer eine Herangehensweise finden, um für einen beliebigen Software-Code herauszufinden, ob der sich jemals in eine Endlosschleife begibt und daher abstürzt. Das ist schade, denn das wüßten wir doch gerne, bevor wir eine Software kaufen. Wir erkennen schon an diesem Beispiel, dass es Grenzen der Berechenbarkeit gibt.
Auch gibt es Dinge, von denen viele Menschen noch nicht einmal ahnen, dass es sie überhaupt gibt. Trotzdem behaupten Atheisten, dass der Mensch zumindest theoretisch jedes Problem lösen kann. Das halte ich für nicht ganz richtig. Der Faktor "geistliches Input" kann nicht in eine mathematische Aufgabe übersetzt und daher auch nicht an Computer übertragen werden.
Auch wenn Computer große Datenmengen besser verwalten und sortieren können als Menschen, scheint es dem Computer an der Seele zu mangeln, wenn es um zutiefst menschliche Empfindungen geht.
Jedoch das scheint sich geändert zu haben, denn es gibt inzwischen Computer, die Bilder malen und Gedichte schreiben, die von Menschen als ästhetisch schön empfunden werden.
Das Problem, welches immer stärker auf uns zukommt, ist folgendes:
Menschen handeln auf Grund einer Ursache. Selbst wenn ein Dieb einbricht und erwischt wird, hat er einen Grund für sein Tun. Herr A schreit Herrn B an, weil er sauer ist. USA greifen den Irak an, weil sie vordergründig Hussein beseitigen und hintergründig sich den Zugang zu Öl sichern wollen. Es gibt immer einen Grund. Der Grund mag unlogisch oder irrational sein, aber er ist der Auslöser für das menschliche Tun.
Wir bilden uns unser Weltbild. Das mag fehlerhaft sein... aber wir erklären uns die Welt, weil wir nach Gründen suchen: Warum tut der Mensch, was er tut?
Wir suchen die Kausalität !
Der Mensch ist ein Produkt der Liebe Gottes. Gott hatte einen Grund, warum ER was tat bzw. warum ER Menschen schuf. Die Bibel ist voll mit Erzählungen über Beziehungen Gott-Mensch sowie Mensch-Mensch: Und sieht Gott keinen Grund, zu uns Menschen gut zu sein, dann handelt ER eben barmherzig. So sollen auch wir handeln. Und wir Menschen können das auch und wir tun das auch - mal mehr, mal weniger.
Im klassischen Design von Algorithmen wird ein Modell gebildet ==> Dieses Modell einer Lösung ist die Definition eines mathematischen Problems vor dem Entwurf. Unsere Lösung lautet z.B. "ich komme so auf kürzestem Wege nach Hamburg". Das ist unser Lösungsziel, weil wir nach Hamburg wollen. Das ist unser Grund zu reisen. Klasse Navigation. So sind Algorithmen hilfreich.
Jetzt aber ändert sich das allmählich: Der Algorithmus baut aus den Daten das Ziel. Wir erhalten auch bei Eingabe richtiger Daten ein verzerrtes Bild der Realität.
Da gibt es doch diesen Witz, bei dem Klaus W. sich einen Hammer vom Nachbarn leihen will. Er stellt sich vor, dass der Nachbar ihm den Hammer nicht leihen will und sogar frech wird. Daraufhin geht Klaus W. zum Nachbarn und gibt ihm für die freche Bemerkung, die doch noch gar nicht erfolgt ist, eine Ohrfeige. ==> Tendenz der Algorithmen der Zukunft.
Der Mensch tut nicht mehr das was er will - sei es guter oder schlechter Wille, nein, er tut was die Algorithmen als Lösungsmodell vorschlagen. Man könnte es auch so formulieren: Der Mensch richtet sich in seinem Willen nach dem Lösungsmodell eines seelen- und lieblosen Computers.
Wir Menschen haben die Fähigkeit zum Bilden von Algorithmen und nutzen diese, auch wenn es uns meist nicht bewuss ist, dass wir einen Algorithmus gebildet haben.
-------------------------------------------------------------------------------
Wir erinnern uns - meine Definition ganz oben...zur Wiederholung in Kurzform = Algorithmen sind klare und systematische Handlungsanweisungen für die Lösung eines mathematisch beschreibbaren Problems, so dass der Computer bei korrekter Implementierung (= Übersetzung in einen Code) für jede korrekte Inputmenge den korrekten Output berechnen kann.
---------------------------------------------------
Input: 30 Bücher sind in die Bücherwand einzusortieren. Kriterium 1 = Unterscheidung nach den Merkmalen Belletristik bzw. Fachliteratur. Dann bitte noch alphabetisch ordnen.
Es entstehen zwei Stapel, die jeweils alphabetisch unterteilt sind. ===> voilá, ein Suchalgorithmus wurde in unserem Gehirn gebildet und diente als Vorlage für die Sortierung.
Wissenschaftler behaupten, dass im Wesentlichen Menschen und Computer genau die selben Fragen beantworten können - oder an den gleichen Fragen scheitern (Church-Turing-Hypothese)
So können Mensch wie auch Computer den kürzesten Weg von A nach B berechnen, jedoch kann weder Mensch noch Computer eine Herangehensweise finden, um für einen beliebigen Software-Code herauszufinden, ob der sich jemals in eine Endlosschleife begibt und daher abstürzt. Das ist schade, denn das wüßten wir doch gerne, bevor wir eine Software kaufen. Wir erkennen schon an diesem Beispiel, dass es Grenzen der Berechenbarkeit gibt.
Auch gibt es Dinge, von denen viele Menschen noch nicht einmal ahnen, dass es sie überhaupt gibt. Trotzdem behaupten Atheisten, dass der Mensch zumindest theoretisch jedes Problem lösen kann. Das halte ich für nicht ganz richtig. Der Faktor "geistliches Input" kann nicht in eine mathematische Aufgabe übersetzt und daher auch nicht an Computer übertragen werden.
Auch wenn Computer große Datenmengen besser verwalten und sortieren können als Menschen, scheint es dem Computer an der Seele zu mangeln, wenn es um zutiefst menschliche Empfindungen geht.
Jedoch das scheint sich geändert zu haben, denn es gibt inzwischen Computer, die Bilder malen und Gedichte schreiben, die von Menschen als ästhetisch schön empfunden werden.
Das Problem, welches immer stärker auf uns zukommt, ist folgendes:
Menschen handeln auf Grund einer Ursache. Selbst wenn ein Dieb einbricht und erwischt wird, hat er einen Grund für sein Tun. Herr A schreit Herrn B an, weil er sauer ist. USA greifen den Irak an, weil sie vordergründig Hussein beseitigen und hintergründig sich den Zugang zu Öl sichern wollen. Es gibt immer einen Grund. Der Grund mag unlogisch oder irrational sein, aber er ist der Auslöser für das menschliche Tun.
Wir bilden uns unser Weltbild. Das mag fehlerhaft sein... aber wir erklären uns die Welt, weil wir nach Gründen suchen: Warum tut der Mensch, was er tut?
Wir suchen die Kausalität !
Der Mensch ist ein Produkt der Liebe Gottes. Gott hatte einen Grund, warum ER was tat bzw. warum ER Menschen schuf. Die Bibel ist voll mit Erzählungen über Beziehungen Gott-Mensch sowie Mensch-Mensch: Und sieht Gott keinen Grund, zu uns Menschen gut zu sein, dann handelt ER eben barmherzig. So sollen auch wir handeln. Und wir Menschen können das auch und wir tun das auch - mal mehr, mal weniger.
Im klassischen Design von Algorithmen wird ein Modell gebildet ==> Dieses Modell einer Lösung ist die Definition eines mathematischen Problems vor dem Entwurf. Unsere Lösung lautet z.B. "ich komme so auf kürzestem Wege nach Hamburg". Das ist unser Lösungsziel, weil wir nach Hamburg wollen. Das ist unser Grund zu reisen. Klasse Navigation. So sind Algorithmen hilfreich.
Jetzt aber ändert sich das allmählich: Der Algorithmus baut aus den Daten das Ziel. Wir erhalten auch bei Eingabe richtiger Daten ein verzerrtes Bild der Realität.
Da gibt es doch diesen Witz, bei dem Klaus W. sich einen Hammer vom Nachbarn leihen will. Er stellt sich vor, dass der Nachbar ihm den Hammer nicht leihen will und sogar frech wird. Daraufhin geht Klaus W. zum Nachbarn und gibt ihm für die freche Bemerkung, die doch noch gar nicht erfolgt ist, eine Ohrfeige. ==> Tendenz der Algorithmen der Zukunft.
Der Mensch tut nicht mehr das was er will - sei es guter oder schlechter Wille, nein, er tut was die Algorithmen als Lösungsmodell vorschlagen. Man könnte es auch so formulieren: Der Mensch richtet sich in seinem Willen nach dem Lösungsmodell eines seelen- und lieblosen Computers.
(Nutzer gelöscht) 03.01.2020 20:00
Ich rate 'mal (ist ja auch naheliegend): Informatik! - Angewandte, Technische oder Theoretische? (Ich hatte vor Jahren einen Diplomanden aus letzterer, der einen graphentheoretischen Algorithmus aus "meiner" Festkörperphysik in Haskell programmiert hat ...)
Augenblicklich beschäftige ich mich nebenbei mit einem Verfahren zur Mustererkennung in Zeitreihen von Finanzmarkdaten; die Tatsache, daß "KI" daran grandios scheitert, läßt mich hoffen, daß "Skynet" nicht so schnell "on-line geht".
Augenblicklich beschäftige ich mich nebenbei mit einem Verfahren zur Mustererkennung in Zeitreihen von Finanzmarkdaten; die Tatsache, daß "KI" daran grandios scheitert, läßt mich hoffen, daß "Skynet" nicht so schnell "on-line geht".
Bluehorse 03.01.2020 20:35
Es gibt im Bereich der Informatik drei Fachgebiete:
1) Der Techniker (Ingenieur) ist der Bastler, dem wir die schnellen Chips verdanken
2) Der praktische Informatiker beschäftig sich mit der Frage, wie man gute Software am besten erstellen kann.
3) theoretische Informatiker werden von grundsätzlichen Fragen angetrieben. Beispiel: Was ist wie am effizientesten und schnellsten berechenbar?
Die Theoretiker denken u.a. über Systeme nach, die es noch nicht gibt. Sie designen Algorithmen und beweisen mathematisch, dass sie auch wirklich das Problem lösen, welches sie lösen sollen.
Mathematische Beweise sind sehr wichtig. Der Physiker und Mathematiker Edsger W. Dijkstra forderte 1959 seine Kollegen zu einem kleinen Wettbewerb heraus. Sie sollten ein kniffliges Problem algorithmisch lösen. Ihn erreichten viele Lösungen, die allerdings allesamt falsch waren. Dijkstra bewies durch Erfindungen von Szenarien, dass der jeweilige Algorithmus das Falsche tun würde. Aber irgendwann wurde ihm das Spiel zu viel, denn die vorgeschlagenen Algorithmen wurden immer komplizierter und er brauchte immer länger, bis er die Situation fand, die den Fehler klar verdeutlichte. Er drehte den Spieß um: Von nun an würde er einen Vorschlag erst gelten lassen, wenn gleichzeitig der mathematische Beweis erbracht wurde, dass der Algorithmus korrekt war.
Er nahm an, dass er dadurch die Herausforderung erschwert hatte. Tatsächlich aber löste der Kollege Theodorus J. Dekker das Problem schon nach wenigen Stunden. Die Lösung: Es hilft, erst einmal darüber nachzudenken, welche Eigenschaften die Lösung eigentlich haben muß, damit man beweisen kann, dass sie korrekt ist. Als Dekker die formalen Anforderungen an die Lösung erkannt hatte, war die Lösung selbst leichter zu finden. Und so werden heute Algorithmiker allgemeine ausgebildet.
Theoretische Informatiker bilden im ersten Schritt ein Modell von der Welt und von der Lösung.
Wir handeln oft ganz ähnlich. Wenn wir losfahren, um die Oma um 15 Uhr zu besuchen und wollen unterwegs noch Pralinen und Blumen einkaufen sowie tanken, dann überlegen wir uns den kürzesten Weg zu allen drei Zwischenstationen auf dem Weg zur Endstation.
Dabei bilden wir ein Modell unserer Welt, wie wir sie kennen, bestimmen was uns wichtig ist und welche Eigenschaften die Lösung haben soll.
Lt. eines Berichts von Reuters vom 6.11.2018 verloren 545 Kunden ihr Haus, weil sie nicht umschulden durften, obwohl die Umschuldung tatsächlich zu besseren Konditionen für sie geführt hätte. Der Fehler lag in falsch berechneten Notarkosten, die die Umschuldung unattraktiv erscheinen lies, was die automatische Umschuldungsverweigerung auf Basis einer algorithmisch ermittelten Entscheidung auslöste.
Quelle: geschrieben von einem Siddarth Cavale, zu finden unter: www.reuters.com/article/us-wells-fargo-housing/wells-fargo-says-internal error-more-home-foreclosures-than-expected-idUSKCNB23S
Durch menschenfreundliche Kommentare im Code und einer gut gewählten Feinstruktur des Programms kann man die Einsichtigkeit der Handlungsanweisungen gut nachvollziehen und so ggf. Fehler leicht finden. Prinzipiell erlauben es Algorithmen, dass ihr Code menschenlesbar gestaltet wird.
Fehler sind das Eine, unethische Software das Andere:
Es wäre ein Leichtes, eine Navigationssoftware zu erstellen, die jeden Fahrer auf jeder Fahrt einmal bei einer bekannten Fast-Food-Kette vorbeiführt. Es ist nur eine Sache der Nachfrage.
Im Jahr 2018 wurde bekannt, dass manche Fluglinien Algorithmen einsetzen, die vergleichsweise oft Personen auseinandersetzen, die gerne zusammen reisen würden. Damit kann eine Gebühr verlangt werden, wenn die Personen doch zusammen reisen wollen.
Quelle: www.indipendent.co.uk/News/Civil-Aviation-Authority-launches-review-of-airlines-allocated-seating-policies/ ==> 35 % der betroffenen Personen, die die Extra-Gebühr nicht zahlten, saßen von ihrer Gruppe getrennt. Ryan Air wird mit dieser Praxis in Zusammenhang gebracht, was diese allerdings abstreitet.
Der bekannteste Fall eines unethischen Einsatzes von Algorithmen kennen wir aus dem Diesel-Abgas-Skandal. Hier wurde Software dafür verwendet, um zu erkennen, ob sich das Auto im Testmodus oder auf der Straße befindet. Im Testmodus - wenn geprüft wurde - wurden verschiedene Systeme abgeschaltet, was die Testwerte deutlich verbesserte. Im Normalbetrieb auf der Straße waren die Abgaswerte deutlich höher.
1) Der Techniker (Ingenieur) ist der Bastler, dem wir die schnellen Chips verdanken
2) Der praktische Informatiker beschäftig sich mit der Frage, wie man gute Software am besten erstellen kann.
3) theoretische Informatiker werden von grundsätzlichen Fragen angetrieben. Beispiel: Was ist wie am effizientesten und schnellsten berechenbar?
Die Theoretiker denken u.a. über Systeme nach, die es noch nicht gibt. Sie designen Algorithmen und beweisen mathematisch, dass sie auch wirklich das Problem lösen, welches sie lösen sollen.
Mathematische Beweise sind sehr wichtig. Der Physiker und Mathematiker Edsger W. Dijkstra forderte 1959 seine Kollegen zu einem kleinen Wettbewerb heraus. Sie sollten ein kniffliges Problem algorithmisch lösen. Ihn erreichten viele Lösungen, die allerdings allesamt falsch waren. Dijkstra bewies durch Erfindungen von Szenarien, dass der jeweilige Algorithmus das Falsche tun würde. Aber irgendwann wurde ihm das Spiel zu viel, denn die vorgeschlagenen Algorithmen wurden immer komplizierter und er brauchte immer länger, bis er die Situation fand, die den Fehler klar verdeutlichte. Er drehte den Spieß um: Von nun an würde er einen Vorschlag erst gelten lassen, wenn gleichzeitig der mathematische Beweis erbracht wurde, dass der Algorithmus korrekt war.
Er nahm an, dass er dadurch die Herausforderung erschwert hatte. Tatsächlich aber löste der Kollege Theodorus J. Dekker das Problem schon nach wenigen Stunden. Die Lösung: Es hilft, erst einmal darüber nachzudenken, welche Eigenschaften die Lösung eigentlich haben muß, damit man beweisen kann, dass sie korrekt ist. Als Dekker die formalen Anforderungen an die Lösung erkannt hatte, war die Lösung selbst leichter zu finden. Und so werden heute Algorithmiker allgemeine ausgebildet.
Theoretische Informatiker bilden im ersten Schritt ein Modell von der Welt und von der Lösung.
Wir handeln oft ganz ähnlich. Wenn wir losfahren, um die Oma um 15 Uhr zu besuchen und wollen unterwegs noch Pralinen und Blumen einkaufen sowie tanken, dann überlegen wir uns den kürzesten Weg zu allen drei Zwischenstationen auf dem Weg zur Endstation.
Dabei bilden wir ein Modell unserer Welt, wie wir sie kennen, bestimmen was uns wichtig ist und welche Eigenschaften die Lösung haben soll.
Lt. eines Berichts von Reuters vom 6.11.2018 verloren 545 Kunden ihr Haus, weil sie nicht umschulden durften, obwohl die Umschuldung tatsächlich zu besseren Konditionen für sie geführt hätte. Der Fehler lag in falsch berechneten Notarkosten, die die Umschuldung unattraktiv erscheinen lies, was die automatische Umschuldungsverweigerung auf Basis einer algorithmisch ermittelten Entscheidung auslöste.
Quelle: geschrieben von einem Siddarth Cavale, zu finden unter: www.reuters.com/article/us-wells-fargo-housing/wells-fargo-says-internal error-more-home-foreclosures-than-expected-idUSKCNB23S
Durch menschenfreundliche Kommentare im Code und einer gut gewählten Feinstruktur des Programms kann man die Einsichtigkeit der Handlungsanweisungen gut nachvollziehen und so ggf. Fehler leicht finden. Prinzipiell erlauben es Algorithmen, dass ihr Code menschenlesbar gestaltet wird.
Fehler sind das Eine, unethische Software das Andere:
Es wäre ein Leichtes, eine Navigationssoftware zu erstellen, die jeden Fahrer auf jeder Fahrt einmal bei einer bekannten Fast-Food-Kette vorbeiführt. Es ist nur eine Sache der Nachfrage.
Im Jahr 2018 wurde bekannt, dass manche Fluglinien Algorithmen einsetzen, die vergleichsweise oft Personen auseinandersetzen, die gerne zusammen reisen würden. Damit kann eine Gebühr verlangt werden, wenn die Personen doch zusammen reisen wollen.
Quelle: www.indipendent.co.uk/News/Civil-Aviation-Authority-launches-review-of-airlines-allocated-seating-policies/ ==> 35 % der betroffenen Personen, die die Extra-Gebühr nicht zahlten, saßen von ihrer Gruppe getrennt. Ryan Air wird mit dieser Praxis in Zusammenhang gebracht, was diese allerdings abstreitet.
Der bekannteste Fall eines unethischen Einsatzes von Algorithmen kennen wir aus dem Diesel-Abgas-Skandal. Hier wurde Software dafür verwendet, um zu erkennen, ob sich das Auto im Testmodus oder auf der Straße befindet. Im Testmodus - wenn geprüft wurde - wurden verschiedene Systeme abgeschaltet, was die Testwerte deutlich verbesserte. Im Normalbetrieb auf der Straße waren die Abgaswerte deutlich höher.
Bluehorse 03.01.2020 20:42
Nein, PaseWalker, ich habe im Rahmen einer Allgemeinbildung nur durchschnittliche Informatikkenntnisse, die ich durch Weiterbildung erwarb. Eigentlich komme ich aus dem Bereich der Rechts- und Wirtschaftswissenschaften und beschäftige mich u.a. mit Psychologie sowie mit theologischen und philosophischen Fragen.
(Nutzer gelöscht) 03.01.2020 20:45
Danke für diese im negativen Sinne beeindruckenden Beispiele! (Und, tatsächlich, es heißt "Praktische" Informatik, nicht "Angewandte" ...)
(Nutzer gelöscht) 03.01.2020 21:20
Bluehorse, ich hab deine Ausführungen nicht gelesen da mir das Problem bekannt ist. Computer übernehmen, die Menschheit ist Machtlos. Also ich denk da anders! Auch wenn das ganze Elektronikgedöns mal übernimmt, kann ein Gedanke ( ein Göttlicher) alle Logarythmen überfordern und zum Verglühen bringen.
Bluehorse 03.01.2020 21:23
Garten17:
Dass wir nicht immer machtlos sind, zeigen u.a. die Reaktionen im Diesel-Abgas-Skandal.
Dass wir nicht immer machtlos sind, zeigen u.a. die Reaktionen im Diesel-Abgas-Skandal.
(Nutzer gelöscht) 03.01.2020 21:55
Naja, viel Eingreifen können wir ja praktisch nicht, aber die Macht des Gebetes ist umso gewaltiger. Nur eben immer zu SEINER ZEIT. Das vergessen viele.
(Nutzer gelöscht) 04.01.2020 08:19
Danke Bluehorse, für den interessanten Blog!
einSMILEkommtwieder 14.10.2020 12:13
@Bluehorse
DANKE für die Verlinkung zu diesem Blog von DIR - in meinem heutigen Beitrag!
LG Vera
DANKE für die Verlinkung zu diesem Blog von DIR - in meinem heutigen Beitrag!
LG Vera