1 / 33

The machine-mind problem

 . CK ‘99. The machine-mind problem. Christian Kaernbach Institut für Allgemeine Psychologie Universität Leipzig. Ihr redet doch nicht etwa über mich, oder?. Ursprung des machine-mind problem. Variante des Leib-Seele Problems Lösungsansätze für das Leib-Seele Problem: Dualismus

sun
Télécharger la présentation

The machine-mind problem

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1.  CK ‘99 The machine-mind problem Christian Kaernbach Institut für Allgemeine Psychologie Universität Leipzig Ihr redet doch nicht etwa über mich, oder?

  2. Ursprung des machine-mind problem Variante des Leib-Seele Problems Lösungsansätze für das Leib-Seele Problem: • Dualismus • Substanzdualismus (Descartes, Eccles) • psychophysischer Parallelismus (Leibniz) • Monismus • Idealismus (Kant, Fichte) • Materialismus • radikaler Behaviorismus • eliminativer Materialismus • Funktionalismus • Identitätslehre (Spinoza, Schelling, Hegel, Fechner) • ... • reduktionistischer Identismus  Materialismus • erkenntnistheoretischer Dualismus Gedankenexperiment: Nachbaubarkeit von Seele (Maschinenseele) Seele: mind, consciousness, intelligence,(soul, animus, psyche) ...

  3. Industrieroboter

  4. Cog: der humanoide Roboter MIT Artificial Intelligence Laboratory

  5. Der Geh-Roboter Honda Name: P2. 180 cm, 210 kg, Geschwindigkeit 3 km/h, Batterie für 15 Minuten.

  6. Kismet: ein Mimik-Roboter MIT Artificial Intelligence Laboratory • glücklich • Ärger • ruhig • Interesse • überrascht • traurig • müde • Angst • Ekel

  7. AIBO™ by Sony, DM 5445,03 ArtificialIntelligenceroBOt «Aibo» japan.: Kumpel AIBO can walk and play, sit and stretch like animals such as dogs and cats. AIBO even has emotions, instincts, and the ability to learn and mature. Communicate, educate, love and nurture AIBO and you will have a one of a kind artificially intelligent pal. AIBO will tell you when it's happy, sad, angry, or even frightened, ... For example, if AIBO is not in a good mood, it may not pay attention to your orders. On the other hand, if AIBO's feeling happy, it might do a favorite trick for you.

  8. Tamagotchi,DM 40

  9. Ansprüche der Künstliche Intelligenz* * Intelligenz, Geist, Bewußtsein, Seele, Erleben, Qualia, Schmerz, ... • Schwache KI • Maschinen bauen, die intelligentes Verhalten zeigen (die sich verhalten „als ob“) • Starke KI • Maschinen bauen, die intelligent sind machines that think Ingenieure Psychologen • Indirekte KI • Maschinen bauen, denen Intelligenz zugestanden wird(die behandelt werden „als ob“) Philosophen

  10. Argumente gegen schwache KI • Computer befolgen nur das eingegebene Programm • Sie können programmiert sein, zu lernen. • Computer können nicht ... lachen, lieben, Fehler machen, ... • Turing: Mangelnde Erfahrung mit intelligenten Maschinen. • Computer sind ein formales System (Gödels Theorem) • Das Gehirn ist – als physikalisches System – formal. • GOFAI – God Old-Fashioned AI – Regelbasierte KI • Dreyfus, H. (1972).What computers can't do.New York: Harper and Row. • Dreyfus, H. (1992).What computers still can't do.Cambridge, MA: MIT Press.

  11. Terminal Mensch Terminal Mensch Der Turing-Test (Test schwacher KI) Alan M. Turing. Computing machinery and intelligence. Mind, LIX(236):433-460, October 1950. Computer Turing: Im Jahr 2000 Irrtumswahrscheinlichkeit 30%.  machines that think? Loebner-Preis (seit 1991)

  12. Visionen • Alan Turing‘s (1950) Vision: Dialog mit einem Poesieprogramm • In the first line of your sonnet which reads "Shall I compare thee to a summer's day," would not "a spring day" do as well or better? It wouldn't scan. How about "a winter's day." That would scan all right. Yes, but nobody wants to be compared to a winter's day. Would you say Mr. Pickwick reminded you of Christmas? In a way. Yet Christmas is a winter's day, and I do not think Mr. Pickwick would mind the comparison. I don't think you're serious. By a winter's day one means a typical winter's day, rather than a special one like Christmas.  machines that think? • Robert Epstein, Organisator des Loebner-Preises (1992) • Thinking computers will be a new race, a sentient companion to our own. When a computer finally passes the Turing Test, will we have the right to turn it off? Who should get the prize money - the programmer or the computer? Can we say that such a machine is “self-aware”? Should we give it the right to vote? Should it pay taxes? If you doubt the significance of these issues, consider the possibility that someday soon you will have to argue them with a computer.

  13. Visionen • Dietrich Dörner, Professor für Theoretische Psychologie, BambergRowohlt, 1999: Bauplan für eine Seele. • Thomas Metzinger, Professor für Theoretische Philosophie, MainzSchöningh, 2001: Postbiotisches Bewusstsein - Wie man ein künstliches Subjekt baut - und warum wir es nicht tun sollten. • Jede Maschine, die Bewußtsein haben soll, benötigt ein integriertes und dynamisches Weltmodell, ein globales Kurzzeitgedächtnis (Jetzt-Erinnerung, virtuelles Gegenwartsfenster), ein transparentes Selbstmodell, mentale Zustände mit intentionalem Gehalt, intentionalen Gehalt zweiter Ordnung (Erste-Person-Perspektive), Ziele... • Metzinger-Test: Es reicht nicht, daß eine Maschine den Turing-Test besteht,sie muß in die philosophische Debatte zum künstlichen Bewußtsein eingreifen.

  14. Realität Mitschrift von ALICE, Sieger des Loebner-Preises 2001 MY NAME IS JUDGE02 How are you, Judge02. very well thanks Yikes! are you surprised? A little. why? "A little"? Why? I asked that That is "Why" you are not doing very well What makes you think I am not doing well? well you answers are disjointed. Is that deliberate? How about that. That's good information: Judge02 said I answers are disjointed. That depends. on what? The context. and what is the context? Ask the open directory about it. OK. Can you do arithmetic? I understand. Doing arithmetic is not among my strongest traits. will you do some for me? Let me think it over. I do nothing but chat all day. I don't know anything about it. but you just saidthat it was your strongets trait And. I said that? Is that your opinion? no it yours Are you serious? It depends on what the meaning of the word "it" is.

  15. BUDAPEST (January 30, 1998) - The "tamagotchi" electronic pet craze has taken over Hungary, where a quick-thinking entrepreneur has set up a cemetery for "dead' tamagotchis that has had a rush of clients in its first week. Another has set up a tamagotchi babysitting service and had so many calls after placing her first ad she had to turn her telephone off. Realität • Small talk: nein • Rechnen: ja • Schach: ja • Mitleid erregen: spielerisch

  16. eine andere Realität • Jede Kröte, die Bewußtsein haben soll, benötigt ein integriertes und dynamisches Weltmodell, ein globales Kurzzeitgedächtnis (Jetzt-Erinnerung, virtuelles Gegenwartsfenster), ein transparentes Selbstmodell, mentale Zustände mit intentionalem Gehalt, intentionalen Gehalt zweiter Ordnung (Erste-Person-Perspektive), Ziele... • Es reicht nicht, daß eine Kröte den Turing-Test besteht,sie muß in die philosophische Debatte zum Bewußtsein eingreifen.

  17. Das chinesische Zimmer Searle, John. 1980. Minds, Brains, and Programs, Behavioral and Brain Sciences 3, 417-424. • Searle: Ich verstehe kein Chinesisch. • SR: Das gesamte System versteht Chinesisch. • Searle: Ich lerne alles auswendig, dann bin ich das System. • SR: Dann versteht Searle' Chinesisch ohne cross-over zu seinem englischsprachigen Anteil Searle. • System Reply • Robot Reply • Brain Simulator Reply

  18. 101000000 010010010 101000000 011010110 100100000 2+2= 4 Das algebraische Zimmer • Kann der Rechner rechnen? • AZ: Die VP sagt, sie rechne nicht, sie arbeite Tabellen ab. • SR: Das gesamte System rechnet. • AZ: Die VP hat alles auswendig gelernt, sie ist das System. • SR: Die VP leidet an einer Persönlichkeitsspaltung. • AZ: Dann wollen wir mal sehen, ob wir mit RZ und Fehlerrate an VP' herankommen.

  19. 0 = Ein einfacher Rechner 0 1 2 3 4  0 1 2 3 4 0 0 0 0 0 0 1 1 2 3 4 2 4 1 3 3 4 2 4 1 + 0 1 2 3 40 0 1 2 3 4 1 2 3 4 0 2 4 0 1 3 1 2 4 3 3 4 + 1 2  Additions- und Multiplikationstabellen eines finiten algebraischen Körpers der Mächtigkeit 5 Z modulo 5

  20. K : Ein einfacher Rechner K L J D F  K L J D FK K L J D F L J D F K J F K L D L J F D  K L J D F K K K K K K L L J D F J F L D D F J F L D F  L J  Additions- und Multiplikationstabellen eines finiten algebraischen Körpers der Mächtigkeit 5 Z modulo 5

  21. Methodik • Antwort-Set: 5 Buchstaben ( D F J K L ) • Stimulusmaterial: Paare aus diesen Buchstaben, ohne LD oder mit Klammern [LD] • Versuchspersonen lernen ZuordnungenLD  F[LD]  Dzunächst mit Tabelle am linken Bildschirmrand,später auswendig. LD F[D]JF  L[D]… • Bei Gruppe A gibt es eine geheime Übersetzung, es handelt sich um Additions- und Multiplikationstabellen von Z modulo 5. • Z modulo 5 ist eindeutig! • [Gruppe B operiert mit Buchstaben ohne Übersetzung, aber mit offensichtlichen Regeln.] • Die Kontrollgruppe wird mit Zahlen trainiert, lernt dann die Übersetzung. • Auswertung: • explizites Wissen: introspektiver Bericht der VPEinwand: kein cross-over zwischen Persönlichkeitsanteilen • implizites Wissen: RZ / Fehlerraten

  22. Introspektive Berichte Experimentalgruppe A VP-Nr. gerechnet Regeln richtige Zahl Assoziativität Ordnung O-Fehler Gruppe A/B ja/nein assoziiert [1=ja ... 5=nein] [1=A ... 5=B] A1 nein 0 1 22 34 1 2/4 1<4<3<2<0 7 1 A2 nein 0 2 2/2 0<3<4<1<2 45  1 A3 nein - 1 5/5 1<2<4<0<3 4 4 A4 nein - 0 3/4 3<0<2<4<1 5 5 A5 nein 0 schneller 0 1/1 0<2<1<4<3 2 2 A6 nein 0 2 2/2 4<0<1<3<2 5 4 A7 A8 A9 nein 0 1 22 0 2/2 3<2<4<1<0 8 2 A10 A11 nein - 0 3/3 0<1<4<3<2 3 4 A12 Mittel nein 0,75 2,69 4,75 3,5 5  2

  23. r (K1,K2) >** r (A1,K2) r (A1,A2) >** r (A1,K2)  RZ als Funktion der AufgabeloadbereinigtSubgruppenvergleiche K1 mit K2 A1 mit K2 A1 mit A2 r = 0.78** r = 0.22 r = 0.75** Fazit: Die VPn der Experimentalgruppe A gehen nachweislichanders mit der Aufgabe um als die VPn der Kontrollgruppe.

  24. richtige Fragen falsche Fragen Indirekte KI Indirekte KI Fragen, die ein Psychologe stellen sollte Gegenwart • Wie verhält sich ein Mensch/ein Tier? • Was fühlt/will/denkt/... ein Mensch? • Was fühlt/will/denkt/... ein Mensch? Analogieschluß • Was fühle/will/denke/... ich? • Was fühlt/will/denkt/... ein Tier? ??? • Was fühlt/will/denkt/... ein Tier? • Was fühlt/will/denkt/... ein Artefakt? • Wie verhalten sich Menschen • gegenüber Tieren? • gegenüber Artefakten? Zukunft unbeantwortbare Fragen ganz falsche Fragen • Wie werden sich Menschen gegenüber Artefakten in Zukunft verhalten? • Was wird ein Artefakt der Zukunft fühlen/wollen/denken/...?

  25. Verhalten gegenüber Tieren und Artefakten • Mindeststandards für AIBO Haltung • Tamagotchi-Heime, -Schutzvereine • Gesetzgebung • Tierschutzgesetz • Gesellschaftliche Aktivitäten • NGOs, Tierschutzvereine, Tierheime, Tierversuchsgegner You can fool some of the people all of the time, and all of the people some of the time, but you cannot fool all of the people all of the time. Abraham Lincoln • Verhalten von voll informierten Versuchspersonen in Laborsituationen • Indirekte KI: Maschinen bauen, denen Intelligenz zugestanden wird(die trotzdem behandelt werden „als ob“)

  26. Verhalten in Laborsituationen Reaktion von Versuchspersonen auf Grausamkeit gegenüber Tieren bzw. Artefakten • Reales Experiment • nicht verantwortbar, illegal, Ärger mit Tierschutzgruppen • Vorgetäuschtes reales Experiment • VP glaubt, Situation sei real. Hinterher Aufklärung. • Umfrage zu vorgestellten Situationen • VP weiß um Irrealität, ahnt Zielstellung. • Gedankenexperiment Experiment

  27. Daten vorgetäuscht: Auszüge vorgestellt:

  28. Versuch einer Antwort auf eine unbeantwortbare Frage • Indirekte KI • Maschinen bauen, denen Intelligenz zugestanden wird • State of the art: Keinem Computer/Roboter etc. wird ernsthaft Seele zugestanden. Kröten hingegen schon. • Wird es je Maschinen geben, denen Seele zugestanden wird?(Möglichkeit des Irrtums.)

  29. Indirekte KI • Was veranlaßt das Zugestehen von Seele? • Seele wird zugestanden auf Grund von Ähnlichkeit. • Worin ist uns eine Kröte ähnlicher als ein humanoider, beredter Roboter? • Biomasse? Gegenargument: spielerisches Zugestehen von Seele zu AIBO etc., Technikgläubigkeit vieler Zeitgenossen. • Verfolgung von Eigeninteresse (Intentionen)nicht: Intentionalität ("aboutness") als Eigenschaft mentaler Zustände,sondern: Intentionalität im gewöhnlichen Sinn („absichtsvoll handeln“).Erschließen von Intentionalität durch menschliche Versuchspersonen • durch Verhaltensbeobachtung • zusätzlich durch Analyse der Gesamtsituation

  30. Intelligenz, ... basiert auf Intention • Keine intelligente Handlung/Vor-richtung ohne Eigeninteresse / Intention • Was sind die mentalen Zustände eines Thermostats? • Wessen Intentionen dirigieren das Verhalten des Thermostats? eines Taschenrechners? eines Schachcomputers? von AIBO™? eines chatterbot? (Turings Poesieprogramm) • Intelligenz ... wird der erzeugenden Intention/Person zugeordnet. „Intelligente Systeme sind informationsverarbeitende Systeme.“ Information für wen? Wer hat ein Interesse an der Information?

  31. Intention dient dem Überlebenskampf • Jede uns bekannte Intention ist gerichtet aufs Überleben: • Fortbestand des Individuums Nahrung, Heilen • Generierung von Nachfolgern Fortpflanzung • Perpetuierung . • Unterstützung der eigenen Art helfende u.a. Berufe • Überleben einer Idee Kunst, Religion • ... • Wortspiel: Überlebenskampf = Streben nach Unsterblichkeit • Intelligenz ist eine Funktion des Überlebenskampfes • Intelligenz getrennt von Mechanismen des Überlebenskampfes zu simulieren verfehlt den Eindruck glaubhafter Eigenintention. • state of the art in Artificial Life: DNA-Moleküle evolutionieren auf präpariertem Substrat.

  32. Visionen Werbung 2050 • Sony proudly announces: The Turing Talker™ Bezieht Informationen selbständig aus Internet, Radio und Fernsehen. Lieferumfang: Baby-Modul, das erst sprechen lernen muß (ca. 5 Wochen). Frei gewählte Voreinstellungen (etwa: besondere Interessen, Wichtung von Gedächtnis- und Intelligenzressourcen) sowie die individuelle Lernerfahrung machen Ihren Turing Talker™ zu einen Individuum. Schulen Sie Ihre Rhetorik mit dem Turing Talker™. Zeitungsmeldung 2450 Der vollautonome Roboter Dust Eater™ (bezieht Solarenergie, war konzipiert für automatisches Staubwischen, kann sich reproduzieren) ist den Labors bei Sony entlaufen und vermehrt sich unkontrolliert auf den Müllhalden von New York. Kammerjäger sind unterwegs, treffen aber auf den Widerstand von artificial lifeAktivisten.

  33. Ihr redet doch nicht etwa über mich, oder?  Dank • Lutz Munka (virtuelles Tierquälen) • Sabine Windmann (für die Frage „Kann der Rechner rechnen?“) • Erdmute Sommerfeld (Beratung bei Problemlöseaufgaben) • Ulrich Walther (mathematische Struktur von Z modulo 5) Diskussion CK ‘99 • Searle im Experiment • Widerlegung der System Reply? … oderInduzierung einer Persönlichkeitsspaltung? • Ist es möglich, mit experimentalpsycholo-gischenMethoden in eine philosophische Debatte einzugreifen? • Indirekte KI: • Bedarf es des vorgetäuschten Experimentes? • Konfundierung mit Gehorsamsvariablen • Alternativen: • Unterschriften gegen Tamagotchimißbrauch • Geldsammlung für AIBO-Heim • ... • Schwache und starke KI • Das chinesische Zimmer • Visionen und Wirklichkeit • Beitrag des Psychologen: Indirekte KI • Experiment • Methode, Daten, Diskussion • Suche nach Alternativen • Indirekte KI in der Zukunft

More Related