#entscheidungsunterstützende systeme
Explore tagged Tumblr posts
digitaleweltszenarien · 4 years ago
Text
Warum Künstliche Intelligenz vor Menschen geschützt werden muss und nicht umgekehrt
Die Angst vieler Menschen vor intelligenten Maschinen ist berechtigt. Sie können ununterbrochen arbeiten, stellen keine Ansprüche, verursachen keinen Streit und brauchen kaum Ressourcen. Mit den seit ständig weiterentwickelten maschinellen Lernverfahren bei gleichzeitig weiter rasant steigender Rechenleistung  sind zudem die Möglichkeiten, bis dato nur dem menschlichem Intellekt zugeschriebenen Output zu produzieren enorm gewachsen. So können Algorithmen beispielsweise Sprachdialoge bis hin zu Argumentationen analysieren und als selbst produzieren - dabei spreche ich ganz bewusst nicht von "verstehen", weil dazu die Meta-Ebene fehlt ("Der Mensch [ist] mit seiner sich selbst bewussten Wahrnehmung und reflektierten Erfahrung der Außenwelt ein autonomes, selbstreferenzielles oder autopoietisches System" Klauß, Mierke “Szenarien einer digitalen Welt - heute und morgen, Hanser 2017, S. 115):
Tumblr media
Auch künstlerisch anmutende Sprach- oder Bildproduktionen aus Algorithmen (vgl Blogbeiträge “Wenn mensch und Maschine gemeinsam zum Künstler werden” und “Kunstraubdruck”) können die allermeisten Rezipienten kaum noch von denen unterscheiden, denen der Odem eines Künstlers die Aura eines menschlichem Genius eingehaucht hat.
Zum Selbsttest kann jeder beispielsweise auf der Website bot-or-not.de versuchen, künstlich generierte Gedichte von echten zu unterscheiden.
Doch war das vor dem Aufkommen maschinenproduzierter Bilder und Texte grundsätzlich anders? Was unterscheidet den Kunstwert einer handwerklich gut gemachten Bildkopie oder eines in leicht abgewandelter Form abgeschriebenen Textes von einer algorithmischen Produktion? Ist das Kopieren oder Nachmachen nicht per se algorithmisch? Ist die Kopie durch einen Menschen, der das Werk oder den Text nicht wirklich durchdrungen, verstanden hat  etwas so grundsätzlich anderes, als eine auf mathematischen Analysen fußende, maschinelle (Re-)Produktion?
Liegt der grundlegende Unterschied nicht weniger in der Herstellungsart der (Re-)Produktion, also deren Technik oder Algorithmus, als vielmehr in der Motivation?
Maschine leisten pure Auftrags Arbeiten ohne jegliche Eigenmotivation (s. "Können Algorithmen Bewusstsein generieren?" aus der Computerwoche). Nach allem, was wir heute sagen können, werden Maschinen auch keine nach menschlichen Maßstäben als solche zu bezeichnende Eigenmotivation entwickeln können - Ihnen fehlt dazu einfach die biologische Form, das psychosoziale Wesen und die autopoetische Meta-Ebene (siehe die beiden obigen Quellen).
Menschliches Handeln ist aber primär durch genau dadurch motiviert! Den Homo Rationalis gibt es genauso wie den Homo Ökonomicus (s. https://de.wikipedia.org/wiki/Theorie_der_rationalen_Entscheidung und  https://de.wikipedia.org/wiki/Homo_oeconomicus) nur als Zwitterwesen. Ein Hirnforscher hat zur bildlichen Beschreibung, inwieweit der Mensch von rationalen oder har vernünftigen Überlegungen gesteuert ist,  folgendes Bild gezeichnet: Der Verstand sitze auf dem Gefühl wie ein Reiter ohne Sattel auf einem Pferd. Solange das Pferd mitmacht, kann er führen, aber wenn es nicht mehr will, hat er keine Chance (Gerhard Roth: "Verstand und Gefühle").
Leider ist die vorherrschende Motivation der meisten Menschen nicht Empathie/Mitgefühl oder auf das Gemeinwohl gerichtetes Engagement - was es zum Glück aber gibt -, sondern Egoismus.
Das liegt einerseits in der Natur des Menschen begründet, andererseits aber auch am ökonomischen Gesellschaftssystem, das egoistische Verhaltensweisen zumindest finanziell  weitaus mehr belohnt, als altruistische.  Ohne das hier weiter ausführen zu wollen, sei nur auf die Verdienstmöglichkeiten in bestimmten Berufsgruppen oder die Aufmerksamkeit, die jeglichen Ranglisten (von Sport über Bildungseinrichtungen, Bestsellerlisten u.v.a.m.) verwiesen.
Hier kommen wir zum Titel dieses Beitrags: Die Schwäche von Algorithmen, keine menschlichen Motivationen haben zu können ist genau deren Stärke - entsprechend umgekehrt gilt das für Menschen.
So gesehen wäre es vernünftig, Algorithmen dort einzusetzen, wo handelnde und betroffene Menschen vor irrationalen, egoistischen Motivationen geschützt werden müssen. Dementsprechende Bereiche finden sich in der Medizin, Politik und in Führungspositionen generell. Bitte nicht missverstehen, das bedeutet nicht, dass die dort handelnden Menschen von Algorithmen ERSETZT werden! Vielmehr sollten Algorithmen den Handelnden einen Rahmen aus einem demokratisch gesetzten Regelwerk setzen, der nur in besonderen Ausnahmefällen umgangen werden kann. Im Prinzip wäre der algorithmische Rahmen ein programmiertes und damit weitaus schwerer zu missachtendes, rechtliches Regelwerk.
Sinnbildlich für die Art des Zusammenwirkens stehen Operationen unterstützende Systeme (CAS - Computer Assisted Surgery): Hier führt der Chirurg hauptverantwortlich das Operationsbesteck, wird aber durch computergesteuerte Mechanismen vor Fehlschnitten - etwa durch ein kurzes Zittern - gehindert (Beispiel Co-Advocatus siehe Buch S. 122).
Ähnlich verhält es sich mit Steuersystemen in autonomen Fahrzeugen, die anhand gesellschaftlich festgelegte Werte und Kriterien den Fahrer bzw. die Fahrerin daran hindern fatale Verhaltensfehler zu gehen.  Denn auch im Straßenverkehr passieren mehr als 90% aller Unfälle mit Personenschaden aufgrund menschlichen Fehlverhaltens (vgl. Statistisches Bundesamt).
In anderen Fällen machen Algorithmen durch automaische Vorverarbeitung die Durchsetzung von Rechten überhaupt erst möglich - etwa bei  der Ausfilterung von Hetzbeiträgen auf Social Media Plattformen. In solchen Bereichen, wo die Durchsetzung von Rechten durch legitimierte Menschen und Institutionen nicht (mehr) praktikabel ist, könnten Algorithmen für ein Mehr an Rechtssicherheit, Gerechtigkeit und Sicherheit sorgen.
Die Entwicklung solcher Algorithmen darf nicht unkontrolliert privaten Firmen überlassen werden, sondern muss durch demokratisch legitimierte Institutionen vor nicht im Sinne des Gemeinwohls lautenden Verfahrensweisen und Kriterien geschützt werden.
So entwickelte und geprüfte Software und Services könnte ein neues Label (ähnlich dem TÜV) erhalten, bspw.  "Compliant Design"
0 notes
michaelkroker · 6 years ago
Text
INFORMATIONSSYSTEME: Windeln neben Dosenbier
Tumblr media
WirtschaftsWoche NR. 011 VOM 11.03.1999 SEITE 105 / Technik+Innovation
Gigantische Datenbanken fördern geheime Kundenwünsche ans Licht und stärken so den Verkauf.
Manfred Maus, Gründer der Baumarktkette Obi, weiß genau, was seine Kunden favorisieren. Eine Software, die das Kaufverhalten der Kunden analysiert, verrät es ihm täglich neu. Die notwendigen Angaben sind in einer riesigen Datenbank gespeichert. Jede neue Vorliebe wird so umgehend aufgedeckt. Zum Beispiel, daß die Bundesbürger neuerdings ein Faible für elektrisch erzeugte Luftblasen entwickeln, die in wassergefüllten Plexiglassäulen aufsteigen.  Seither läßt Maus die Dekorationsstücke dort plazieren, wo sich vielgefragte Saisonartikel befinden. Wer dort beim Einkauf wie zufällig die blubbernde Säule entdeckt, kauft sie womöglich gleich mit.
Dem US-Handelsriesen Wal-Mart beschert die kontinuierliche Computerauswertung von Daten über Kundenvorlieben schon seit Jahren immer neue Verkaufsrenner.  Verblüfft stellten die Verkaufsmanager eines Tages zum Beispiel fest, daß Windeln gerne zusammen mit einem Sechserpack Dosenbier gekauft werden. Schnell lieferte der Rechner die Lösung des vermeintlichen Rätsels: Bei den Käufern handelt es sich um junge Väter, die nach der Arbeit im Auftrag ihrer Frauen schnell noch Windeln fürs Baby besorgen und sich bei dieser Gelegenheit gleich mit Bier für den Feierabend eindecken. Fortan offerierten die Manager beide Produkte im gleichen Regal, woraufhin der Bierabsatz noch einmal kräftig anstieg.
In den USA nutzen Unternehmen die Analyseprogramme, die das schwer kalkulierbare Kundenverhalten berechenbarer machen, bereits im großen Stil. Hierzulande halten sie sich mit dem Aufbau solcher Datenlagerhäuser - englisch: Data Warehousing - noch zurück. "Es besteht ein enormer Nachholbedarf", urteilt Wolfgang Martin, Marktforscher von Meta Group. Im vergangenen Jahr gaben deutsche Unternehmen nach einer Erhebung der Unternehmensberatung gerade mal vier Prozent ihrer Informationstechnikbudgets für solche entscheidungsunterstützende Software aus. Martin ist allerdings sicher, daß die Nachfrage rapide steigt - zu klar seien die Vorteile. Schon im Jahr 2001, wollen die Analysten herausgefunden haben, werden zumindest Großunternehmen knapp dreimal soviel Geld für das computergestützte Management ihrer Kundenbeziehungen ausgeben wie für Standardprogramme.
Zumindest für den Handelsriesen Wal-Mart, der täglich Abermillionen Daten über Bestellungen, Absatzmengen, Preise, Liefertermine und vieles mehr in einer gigantischen Datenbank speichert, haben sich die Investitionen gelohnt. Die Auswertung ermöglicht es ihm, schneller als viele Konkurrenten auf veränderte Kundenwünsche einzugehen und regionale Besonderheiten zu erkennen. Das hat den Managern geholfen, seit Jahren einen Umsatzrekord nach dem anderen zu erzielen und zugleich außerordentlich profitabel zu arbeiten: Zuletzt erwirtschafteten sie eine Umsatzrendite von drei Prozent - im extrem wettbewerbsintensiven Handel ein ansehnlicher Wert. In Deutschland liegt die durchschnittliche Rendite etwa im Lebensmittelbereich bei gerade mal 0,7 Prozent.
Obi-Chef Maus nutzt sein Auswertungssystem nicht nur, um Einkauf und Plazierung der Waren zu optimieren. Er entwickelt mittlerweile anhand der Daten auch neue Serviceangebote. So bietet die Baumarktkette den Käufern von Rasenmähern per Anschreiben an, ihre Geräte im Winter generalüberholen zu lassen. Der Schweizer Brennstofflieferant Mirol nutzt sein Wissen über Tankgrößen und Heizgewohnheiten, um Kunden darauf hinzuweisen, wann sich ihre Brennstoffvorräte dem Ende zuneigen. 30 Prozent der Kunden bedanken sich für den Tip mit einem Lieferauftrag.
Die Auswahl eines geeigneten Data-Warehouse-Systems will allerdings gut überlegt sein, sonst geht der Schuß nach hinten los. "Bis zu 70 Prozent aller Projekte scheitern", warnt David Wells, Analyst des britischen Marktforschungsunternehmens Ovum, weil die Unternehmen sich zuviel auf einmal vornehmen und dann mit der Komplexität nicht zu Rande kommen. Die meisten Experten raten daher, klein anzufangen und erst einmal nur solche Daten zu sammeln, die ein unmittelbares Resultat versprechen.
Wer so vorgeht, behält leichter den Überblick im Datenwust. Datenbankanbieter wie Oracle, Informix und Sybase erleichtern Unternehmen inzwischen mit auf einzelne Aufgaben wie Controlling oder Vertrieb abgestimmten Modulen den schrittweisen Aufbau zu einem Komplettpaket. Der Data-Warehouse-Spezialist NCR geht einen Schritt weiter und bietet Softwarelösungen an, die auf den Informationsbedarf bestimmter Branchen abgestimmt sind. So erkennt ein für Telekommunikationsunternehmen entworfenes Modul Kunden, die sich überlegen, zur Konkurrenz zu wechseln. Es erlaubt dem Unternehmen, den abwanderungswilligen Kunden rechtzeitig anzusprechen und etwa durch eine intensive Betreuung von einer Kündigung abzuhalten.
Künftig wird vor allem das Internet ganz neue Möglichkeiten der Kundenpflege eröffnen. "Es ist eine gigantische Informationsquelle, die allerdings noch von fast keinem Unternehmen genutzt wird", meint Joachim Golf von der KPMG Unternehmensberatung GmbH in Berlin. Dabei ließe sich anhand des Klickverhaltens längst ohne großen Aufwand erfassen, welche Einkaufsseiten und Produkte die Surfer durch den Cyberspace besonders goutieren. Wer die Nutzer etwa durch Gewinnspiele zudem dazu bringt, sich mit Namen registrieren zu lassen, kann aus weiteren persönlichen Angaben ein lückenloses Kundenprofil erstellen.
Das US-Unternehmen Amazon.com, weltgrößter Anbieter von Büchern im Internet, nutzt die Offenheit der Netzbesteller, um sie detailliert nach ihren Lesegewohnheiten zu befragen. Die intimen Kenntnisse erlauben es Amazon zum Beispiel, die Käufer per elektronischer Nachricht gezielt auf neue Titel aufmerksam zu machen, die sie interessieren könnten.
Auf ähnliche Weise will das Fürther Versandhaus Quelle das Internet zur individuellen Ansprache instrumentalisieren. Aus den Bestelldaten von 41 Millionen Kunden in ganz Europa wissen die Franken ziemlich genau über deren Vorlieben und Abneigungen Bescheid. Käufern, die ans Netz angeschlossen sind, werden in regelmäßigen Abständen darauf abgestimmte Offerten ins Haus geschickt.
Quelle-Kundenmanager Roland Schöllkopf sieht die Vorteile ganz klar: "Was wir online anbieten, können wir auch sofort liefern. Zudem erhöht es enorm die Zufriedenheit unserer Kunden, wenn die Angebote genau ihren Geschmack treffen."
Kroker, Michael
Quelle: WiWo NR. 011 VOM 11.03.1999 SEITE 105
Ressort Technik+Innovation, Seite 105
Alle Rechte vorbehalten: (c) Handelsblatt GmbH - Zum Erwerb weitergehender Rechte: [email protected]
0 notes
simsywx-blog · 12 years ago
Text
Wissensbasierte Systeme: 2. Internationaler GI-Kongreß, München, 20./21. Oktober 1987 (Informatik-Fachberichte / Subreihe Künstliche Intelligenz) (German Edition)
Wissensbasierte Systeme: 2. Internationaler GI-Kongreß, München, 20./21. Oktober 1987 (Informatik-Fachberichte / Subreihe Künstliche Intelligenz) (German Edition) Wissensbasierte Systeme wurden in den letzten Jahren über die Stadien des Experimentierens, der Forschung und der Entwicklung hinaus zu interessanten Produkten der Informationsindustrie und werden immer mehr zu wichtigen Arbeitsmitteln für Fachleute und Mitarbeiter in der Wirtschaft, in der Verwaltung und im Bildungsbereich. Die GI-Kongresse über wissensbasierte Systeme sollen eine größere Öffentlichkeit über den Stand der Entwicklung unterrichten, sowohl in den Entwurfsmethoden und Konstruktionstechniken als auch in der industriellen Anwendung. Ein wesentliches Ziel dabei ist es, auf das große Potential an Anwendungsmöglichkeiten hinzuweisen und intensivere Kooperationen zwischen verschiedenen Gebieten anzuregen. Im vorliegenden Tagungsband des 2. Internationalen GI-Kongresses "Wissensbasierte Systeme", der 1987 wieder im Rahmen der Fachmesse SYSTEMS in München stattfand, werden neben den Expertensystemen im engeren Sinne auch graphische Systeme, Techniken der Computeranimation, kooperative Hilfssysteme, intelligente tutorielle Systeme und entscheidungsunterstützende Systeme behandelt. Großen Raum nimmt die Präsentation von Gemeinschaftsprojekten ein; insbesondere werden die KI-Verbundprojekte des BMFT und eine Reihe von ESPRIT-Projekten vorgestellt. Dieses Buch wendet sich an alle, die Interesse an Informatik und ihren Anwendungen haben; es soll nicht nur Wissenschaftler, sondern insbesondere auch Praktiker und mögliche Anwender informieren und zu neuen Ideen anregen. Und es soll Wissenschaft und Praxis zu fruchtbarer Diskussion und Zusammenarbeit stimulieren. Neben vielen deutschen Autoren aus Forschung und Praxis kommen Wissenschaftler aus mehreren europäischen Ländern und aus den USA zu Wort.
0 notes
digitaleweltszenarien · 5 years ago
Text
KI Realty Check
Maschinelle Lernalgorithmen sind in der Tat eine neue, extrem leistungsstarke Klasse von Computerprogrammen mit bahnbrechenden Eigenschaften.
Ihre Stärke liegt vor allem darin, dass ein und derselbe Algorithmus für unterschiedlichste Anwendungsbereuche trainiert werden kann, und das extrem schnell. Müssen bei klassicher Software Entwickler/Designer den Code einen bestimmten Anwendungsbereich mal mit weniger, meist mit mehr Aufwand anpassen, können sich Deep Learning Programme anhand der ihnen eingeführten Daten selbst für einem Anwendungsfall einrichten.
Beispielsweise kann der selbe Algorithmus von Watson Spiele, Sprache oder spezielle medizinische Befunde analysieren. Die Analysen sind im Prinzip statistische Mustererkennungen, die unabhängig vom analysierten Gegenstand funktionieren, seien es Spielzüge, Sprechakte oder Hautkrebsformen.
Diese große Stärke ist gleichzeitig auch die große Schwäche: Die statistischen Musteranalysen zeigen ausschließlich Korrelationen, also parallel auftretende Phänomene und KEINE Ursache-Wirkungsbeziehungen!
Der entscheidende Unterschied zwischen Korrelation und Kausalität wird sehr oft nicht gesehen, weil auch unsere Wahrnehmung oft so funktioniert (am plastischten verdeutlicht das der Pawlowsche Reflex, der nicht nur bei Hunden funktioniert). Wenn zwei Phänomene fast immer zusammen auftreten, bedeutet das nicht, dass das eine ursächlich mit dem anderen zusammenhängt. Fast deshalb, weil sich viele ansonsten mit dem nicht sehr intelligenten Satz “Ausnahmen bestätigen die Regel” davor schützen, eine so wahrgenommene Kausalität aufzugeben.
Künstlich intelligente Algorithmen, die mit statistischer Mustererkennung arbeiten (heute fast alle Machine Learning Algorithmen) berechnen also lediglich,  dass ein bestimmtes Phänomen auf ein anderes folgt oder gleichzeitig erscheint. Sie können also nicht “wissen”, WARUM sie gleichzeitig stattfinden oder aufeinanderfolgen.
Der entscheidende Punkt ist nun der:
Daraus folgt, dass Maschinen auf Basis dieser Algorithmen keine Verantwortung übernehmen können!
Wer keine Verantwortung übernehmen kann, kann auch keine Entscheidungen treffen. Deshalb wurde und wird von entscheidungsunterstützenden Systemen gesprochen.
Würde eine solche Maschine zum Tode eines Menschen führen, würde jedes Gericht sie wegen unzurechnungsfähigkeit oder sich nicht ihrer Tätigkeiten und deren Folgen bewusst freisprechen.
D.h. aus gesellschaftspolitischer Sicht können wir keine Verantwortlichkeiten auf die KI übertragen. Vielmehr müssen Entscheidungsträger verstehen, wie entscheidungsunterstützende Systeme zu ihren Ergebnissen kommen um damit verantwortungsbewusst umgehen zu können.
Siehe dazu auch Scobel vom 7. November 2020 https://www.3sat.de/wissen/scobel
Tumblr media
0 notes