Ich habe "RAM vergießen gegen Frozen RAM?" in Beitrag "RAM vergießen gegen Frozen RAM?" gelesen. Ich fand den Beitrag inhaltlich total daneben. Der Thread-Ersteller hat keine Antwort gegeben, warum er so handelte, wie er handelte - was wollte er damit bezwecken ?; und die meisten der Antwortenden haben sich erst mit Phantastischem gegenseitig überboten, um dann auf den Thread-Ersteller einzuhauen: "Du bist verrückt !" (wie es in Foren meistens leider oft ist). Trotzdem fand ich den Beitrag sehr interessant; nur eben unter einem anderen Aspekt und würde gerne eure Meinung zu folgendem hören: Im Jahr 1966 wurde das Programm "ELIZA" geschrieben, das durch geschickte Fragen beim Benutzer den Eindruck erweckte, daß am anderen Ende jemand war, der ihm zuhörte (http://de.wikipedia.org/wiki/ELIZA). Dort wird auf den Turing-Test verwiesen (http://de.wikipedia.org/wiki/Turing-Test): der Theorie nach ist es möglich, mit einem Computer (einer Turing-Maschine) jedes beliebige Problem zu lösen bzw. jedes Verhalten zu simulieren. Es könnte also ein Computer auch einen Menschen simulieren (zum Beispiel einen Thread-Ersteller in einem Forum). Nach "Chatbot" (http://de.wikipedia.org/wiki/Chatterbot) hat schon längst jemand vor mir sich darüber Gedanken gemacht (daß man Foren-Beiträge durch Computer erstellen lassen könnte). Nun meine Frage: War der obige Beitrag (der auf mich total daneben wirkte)(oder sonst manch anderer Beitrag in anderen Foren) also vielleicht ein Beispiel für einen Computer-Fragesteller ? (Es ist sehr schwer, einen Computer zu überführen -> siehe Turing-Test.) Wer sollte so etwas tun ?: Vielleicht ist dieser Beitrag Teil eines groß angelegten Projekts einer Universität (Studiengang Medien-Psychologie), die immer mal wieder in fast beliebigen Foren ihren neuen Prototypen ausprobiert ? Vielleicht ist für 2012 die Veröffentlichung in einem Buch geplant ? Bei dem Thread-Ersteller möchte ich mich schon hier entschuldigen (wenn er hoffentlich ein Mensch ist) - es geht um die abstrakte Diskussion. Vor allem, daß der Fragesteller sich geweigert hat, seine Motivation zu erklären, hat mich darauf gebracht: wäre es möglich, in heutigen Foren Computer-Fragen-Ersteller (Chatbots) einzuschleusen, ohne daß jemand das noch merken würde ? Ich selber bin kein Computer, sondern ein Mensch; meine Adresse findet sich auf meiner Homepage www.alice-dsl.net/oliverkroll1 im Impressum (wer Lust und Zeit hat, kann mich physikalisch besuchen kommen und mir die Hand schütteln !!), ich bin Informatik-Student und in einer meiner Vorlesungen geht es jedesmal um Authentizierungs-Probleme (ist der Empfänger derjenige, für den er sich ausgibt). Also, ich bin gespannt auf eure Antworten ...
Es gibt für das Problem sogar extra Internet-Dienste: http://vkcouplestesting.com/ Öffnen, Link an Chat-Partner schicken, und dann beide gleichzeitig den Text lesen: http://www.xkcd.com/632/ SCNR.
Oliver Kroll schrieb: > (http://de.wikipedia.org/wiki/Turing-Test): der Theorie nach ist es > möglich, mit einem Computer (einer Turing-Maschine) jedes beliebige > Problem zu lösen bzw. jedes Verhalten zu simulieren. Nur nebenbei, da es eigentlich nicht zu deinem Thema gehört: Das hast du gründlich misverstanden. Gerade Alan Turing, derjenige der den Turing-Test vorgeschlagen und die Turing Maschine in die Informatik eingeführt hat, hat gezeigt, dass es eben nicht möglich ist, jedes beliebige Problem zu lösen. In seiner verallgemeinerten Form, dem sog. Halteproblem gibt Turing ein Kochrezept für ein Program, welches das ihm gestellte Problem in seiner vollen Allgemeinheit eben nicht lösen kann. Das Halteproblem ist die Informatiker-Variante der Technik, die Kurt Gödel benutzte, um zu zeigen, dass Mathematik nicht vollständig sein kann: Es gibt wahre mathematische Aussagen, die sich im Rahmen der Mathematik nicht beweisen lassen. Was du wahrscheinlich aufgeschnappt hast: Wenn es für ein Problem überhaupt möglich ist, einen Algorithmus anzugeben, der das Problem löst, so kann dieser Algorithmus auf einer Turing Maschine implementiert werden. Dies ist umso erstaunlicher, als die Turing Maschine eine ganz simple Maschine ist. Und genau das macht das ganze für die theoretische Informatik so interessant. Kann man zeigen, dass ein Problem mithilfe einer Turing Maschine lösbar ist, so hat man damit gezeigt, dass jeder beliebige Computer das Problem lösen kann. Für viele Klassen von Problemen ist dieser Nachweis gelungen, so dass es genügt, für ein Problem zu zeigen, dass es äquivalent zu so einem bereits gelösten Problem ist. Auf der anderen Seite hat man mit diesem Turing-Beweis aber auch das Wissen in der Hand, dass es Probleme gibt, die für immer unlösbar bleiben werden, egal wie sich die Computer Techik weiter entwickelt, egal wie schnell die Maschinen werden. All das spielt keine Rolle. Kann eine Turing Maschine ein Problem prinzipiell nicht lösen, so kann das auch kein andere heute verfügbarer oder zukünftiger Computer. Das Problem an der Sache ist nur: Woher wissen wir a priori, dass eine Turing Maschine ein bestimmtes Problem nicht lösen kann? Ist das Problem grundsätzlich unlösbar oder wurde nur der Lösungsalgorithmus noch nicht gefunden? > Es könnte also ein > Computer auch einen Menschen simulieren (zum Beispiel einen > Thread-Ersteller in einem Forum). Auch das hast du misverstanden. Turing sagt nicht, dass dies möglich ist. Was Turing vorschlug, war: Wenn es einem Computer gelingt, einen Menschen in eine Unterhaltung zu verwickeln, so dass der Mensch nicht entscheiden kann, ob er sich mit einem Computer oder einem Menschen unterhält, so könne man in so einem Fall dem Computer(program) Intelligenz zusprechen. Eliza hat gezeigt, dass dieser Test nicht sehr sinnvoll ist. Zumindest dann nicht, wenn man den Test so abwandelt, dass das Gespräch nicht über Gott und die Welt sondern in einem abgegrenztem Gebiet stattfindet. Da Eliza sehr einfach aufgebaut ist, hegte man die Hoffnung, diese Grenze des abgegrenzten Gebietes relativ einfach überwinden zu können und den Turing Test in bälde in seiner allgemeineren Form bestehen zu könen. Man merkte aber sehr schnell, dass dies ein Trugschluss war. In seiner allgemeinen Form versuchte man seit den 60-jahren des vorhergehenden Jahrhunderts Möglichkeiten zu finden, wie man dieses Ziel erreichen kann. Auch wenn es bisher nicht gelungen ist, so haben diese Versuche immerhin die KI-Forschung weiter gebracht. Und sei es nur dahingehend, dass man gelernt hat, dass unser Gehirn erstaunliches zu leisten imstande ist, was sich eine algorithmischen Beschreibung weitgehend entzieht und von dem wir eigentlich nicht wissen wie es funktioniert. Der Turing-Test hat auch dazu geführt, dass die Fragestellung "Was ist überhaupt Intelligenz" genauer durchleuchtet wurde.
>Auf der anderen Seite hat man mit diesem Turing-Beweis aber auch das >Wissen in der Hand, dass es Probleme gibt, die für immer unlösbar >bleiben werden, egal wie sich die Computer Techik weiter entwickelt, >egal wie schnell die Maschinen werden. Nicht ganz, es gibt den theoretischen "Hypercomputation"-Ansatz, mit dessen Hilfe man das Halteproblem lösen könnte. Dazu kann z.B. eine "accelerated touring machine" dienen, bei der sich die Taktfrequenz bei jedem Takt verdoppelt. Der erste Takt (die Periode) beträgt 1 s, der zweite 0,5 s, der dritte 0,25 s. Damit kann man das Halteproblem in 2 Sekunden lösen :-) Es gibt noch andere Ansätze, zum Beispiel ein "Orakel", aber interessanterweise kann auch folgendes gezeigt werden: Ansich ist der Quantencomputer nicht "mächtiger" als ein Computer, aber mit bestimmten Tricks könnte man einen Quantencomputer modifizieren, um ihn eben z.B. das Halteproblem lösen zu lassen. Ich habe mir während des Studiums mal einen ganzen Satz von Dokumenten (von JStor oder so) gezogen, die kann ich bei Interesse mal zur Verfügung stellen. Findet man sicher aber auch im Internet.
Claudio H. schrieb: > Nicht ganz, es gibt den theoretischen "Hypercomputation"-Ansatz, mit > dessen Hilfe man das Halteproblem lösen könnte. Dazu kann z.B. eine > "accelerated touring machine" dienen, bei der sich die Taktfrequenz bei > jedem Takt verdoppelt. Der erste Takt (die Periode) beträgt 1 s, der > zweite 0,5 s, der dritte 0,25 s. Damit kann man das Halteproblem in 2 > Sekunden lösen :-) Den Algorithmus würde ich aber gerne mal sehen. Ich wüßte nicht wie die "Taktrate" das Problem beheben sollte, da eine Turingmaschine (zumindest Theoretisch) keinen festgelegten "Maximaltakt" hat.
Läubi .. schrieb: > Claudio H. schrieb: >> Nicht ganz, es gibt den theoretischen "Hypercomputation"-Ansatz, mit >> dessen Hilfe man das Halteproblem lösen könnte. Dazu kann z.B. eine >> "accelerated touring machine" dienen, bei der sich die Taktfrequenz bei >> jedem Takt verdoppelt. Der erste Takt (die Periode) beträgt 1 s, der >> zweite 0,5 s, der dritte 0,25 s. Damit kann man das Halteproblem in 2 >> Sekunden lösen :-) > Den Algorithmus würde ich aber gerne mal sehen. Ich auch. Das Halteproblem ist ja nicht ein NP-vollständiges Problem, sondern beruht in der Tat darauf, einen logischen Widerspruch durch Selbstbezug zu provozieren. "Epidermis ist Kreter. Epidermis sagt: Alle Kreter sind Lügner." Wie kann er gleichzeitig die Wahrheit sagen und doch ein Lügner sein? Auf der anderen Seite sind meine Uni-Tage schon lange vorbei und in der Zwischenzeit hat sich viel getan.
Der Algorithmus ist hier (schnell über Google gefunden, ich hatte einen in formalerer Ausführung): http://en.wikipedia.org/wiki/Zeno_machine Bitte schön und schönes Wochenende ;-)
@Karl Heinz: Übrigens, schöner freudscher Fehler mit "Epimedes <-> Epidermis".
Claudio H. schrieb: > Der Algorithmus ist hier (schnell über Google gefunden, ich hatte einen > in formalerer Ausführung): > http://en.wikipedia.org/wiki/Zeno_machine > > Bitte schön und schönes Wochenende ;-) Dir auch. Und danke für das Stichwort. erinnert mich irgendwie an den 'Plattenspieler-Zweikampf' von Achilles und der Schildkröte in "Gödel, Escher Bach": Zitat aus dem Link: Although it should be noted that the halting problem for Zeno machines is not solvable by a Zeno machine :-)
Claudio H. schrieb: > Der Algorithmus ist hier (schnell über Google gefunden, ich hatte einen > in formalerer Ausführung): > http://en.wikipedia.org/wiki/Zeno_machine > > Bitte schön und schönes Wochenende ;-) Aus dem Artikel: 'Although it should be noted that the halting problem for Zeno machines is not solvable by a Zeno machine (Potgieter, 2004).' Also verschiebt es doch nur das Problem... Da ich nicht allgemein für jedes Zeno-Programm feststellen kann ob es hält, habe ich doch ein neues 'Halteproblem'. Insbesondere müßte ich erstmal zeigen das eine Zenomaschine welche das Halteproblem löst überhaupt irgendwann hält. Auch scheint eine realisierung eher im Bereich des Phantastischen als im Bereich des möglichen zu sein... > Auf der anderen Seite sind meine Uni-Tage schon lange vorbei > und in der Zwischenzeit hat sich viel getan. Naja bei mir isses nun fast ein Jahr her aber wir haben das auch noch so gelernt ;)
Find ich toll, dass sich ein paar Gödel Escher Bach Fans hier tummeln. (Müßte ja eigentlich Escher Gödel Bach heißen :-)) Na klar, dem Gödelschen Satz entkommt man nicht. Wenn eine Maschine mit den ihr zur Verfügung stehenden Möglichkeiten ein Problem nicht lösen kann, gebe ich ihr mehr Möglichkeiten (z.B. ein Axiom dazu). Dann kann sie das Problem jetzt lösen, ist aber gleichzeitig wieder unvollständig, weil das neue Axiom wieder ein Loch reißt.
Claudio H. schrieb:
> Find ich toll, dass sich ein paar Gödel Escher Bach Fans hier tummeln.
Was heißt FAN?
Ich vergöttere dieses Buch!
Hast du auch "I am a strange loop"? Das habe ich mir in Englisch gegönnt. Und natürlich noch "Gödel's proof" von Nagel/Newman, in dem ein komplettes Kapitel über richtiges Zitieren geht. Mein GEB ist schon total abgegriffen, und in den meisten Seiten liegen Zettel, auf denen ich die versteckten Andeutungen das Autors hingeschrieben habe...Und mit jedem Mal lesen entdecke ich mehr :-) Ricercare!
Claudio H. schrieb:
> Hast du auch "I am a strange loop"?
Nein leider nicht.
Zu Ernst B.: >Es gibt für das Problem sogar extra Internet-Dienste: > >http://vkcouplestesting.com/ Dieser Internet-Dienst wählt ein Schlüssel-Paar aus, das in einen neuen Schlüssel gepackt wird, an die URL angehängt wird und im Empfänger wieder ausgepackt wird (als Erklärung für diejenigen, die mit dem Thema Verschlüselung nicht so vertraut sind), um dann auf dem Bildschirm angezeigt zu werden (als Graphik, nicht als ASCII-Text). Wenn man ein ELIZA-Programm in einem PHP-Skript hätte, gäbe es vielleicht die Schwierigkeit, daß die graphischen Zeichen nicht in ASCII-Zeichen umgewandelt werden könnten -> das ELIZA-Programm wäre enttarnt. Weil wir aber ein beliebig geschicktes Programm annehmen, dürfen wir auch annehmen, daß das Programm über Bildverarbeitung verfügt. Das Programm würde also die Oberlinie, die Unterlinie und vielleicht noch eine Mittellinie ermitteln (alle Linien sind geschwungene Bögen), dann zusammengehörende schwarze Flächen als Graphen darstellen und schließlich nach Strichen und Kreisen suchen: damit könnte das Programm die graphischen Zeichen zuverlässig in ASCII-Codes umwandeln und könnte dem Sender die richtige Antwort übermitteln. Der Sender würde meinen: "Nur ein Mensch kann die Zeichen lesen." und schon ist der Mensch getäuscht. Das heißt, mit einem verteilten Schlüssel kann man das Problem:"Ist mein Gegenüber (im Internet) ein Mensch oder eine Maschine ?" nicht lösen. Zu Karl heinz Buchegger: >Oliver Kroll schrieb: >> (http://de.wikipedia.org/wiki/Turing-Test): der Theorie nach ist es >> möglich, mit einem Computer (einer Turing-Maschine) jedes beliebige >> Problem zu lösen bzw. jedes Verhalten zu simulieren. > >Nur nebenbei, da es eigentlich nicht zu deinem Thema gehört: > >Das hast du gründlich misverstanden. >Gerade Alan Turing, derjenige der den Turing-Test vorgeschlagen und die >Turing Maschine in die Informatik eingeführt hat, hat gezeigt, dass es >eben nicht möglich ist, jedes beliebige Problem zu lösen. Mir ist das Halteproblem bekannt, und das Halteproblem ist leider sehr lästig, weil es von der eigentlichen Diskussion abbringt. Wenn das Halteproblem erwähnt wird, muß man leider immer erst wieder zwei Schritte zurück (nur, weil das Halteproblem als ungelöst gilt, heißt das noch lange nicht, daß die Turing-Maschine an sich völlig wertlos wäre): denken wir uns die Turing-Maschine kurz weg; angenommen, wir hätten nur NAND-Gatter (aus denen sich eine Turing-Maschine bauen läßt): wenn wir nur "vorwärts"-Verbindungen zwischen den Gattern haben, haben wir ein Schaltnetz; mit einem Schaltnetz ist bekanntlich jede beliebige mathematische Funktion abbildbar (wenn auch vielleicht mit großer Anzahl von Gattern); wenn auch Rückkopplungen ("rückwärts"-Verbindungen) hinzukommen, dann haben wir ein Schaltwerk; mit einem Schaltwerk können Informationen aus der Vergangenheit aufbewahrt werden; mit einem Schaltnetz kann jede Funktion aus der Gegenwart abgebildet werden, mit einem Schaltwerk kann jede Funktion aus Gegenwart und Vergangenheit abgebildet werden; das berechnete Ergebnis beschreibt die Zukunft, sodaß wir die volle Kausalität abbilden können: es gibt kein Problem IM ZUSAMMENHANG MIT NATÜRLICHEN DINGEN, das wir mit einem Schaltwerk nicht lösen könnten. Ein Schaltwerk kann von einer Turing-Maschine simuliert werden, deshalb ist jedes Problem (IM ZUSAMMENHANG MIT NATÜRLICHEN DINGEN) lösbar. Das Halteproblem ist sozusagen die Differentialgleichung unter den normalen Funktionen, also eine schwierigere Aufgabe, die gesondert betrachtet werden muß, nämlich "was passiert, wenn eine Turing-Maschine auf eine zweite Turing-Maschine trifft ?" (vergleichbar der Frage: "was sieht ein Spiegel, der in einen (zweiten) Spiegel schaut ?") Das Halteproblem ist der Versuch, ein kompliziertes Problem auf billige Art zu erschlagen: es wird angenommen ein Programm, das ein anderes Programm analysieren kann (Turing-Maschine trifft Turing-Maschine). Ein solches Programm haben wir aber im Moment noch nicht: macht nichts, wir wollen sowieso nur eine Zeile anhängen: "solange ich als zu untersuchendes Programm noch untersucht werde, solange führe ich einfach noch einen weiteren Befehl aus; ich warte einfach darauf, daß das untersuchende Programm von sich aus schlapp macht; dann sage ich: du hast mich nicht erfaßt und schon habe ich als zweites Programm gewonnen und bin damit das neue, großartige Programm, das keiner entschlüsseln kann ! Haha !" Das Problem bei dem Halteproblem in der jetzigen Form ist, daß das untersuchende (erste) Programm in keiner Weise näher angegeben wird: das erste Programm könnte zum Beispiel als erstes nach Schleifen im Programmlauf suchen: wenn das zweite Programm keine Schleifen enthält, dann ist es garantiert ein endliches Programm, dann gibt es kein Problem mehr in der Entscheidung, ob das zweite Programm anhält oder nicht; weiterhin könnte vom ersten Programm untersucht werden, ob vorhandene Schleifen voraussagbar oft durchlaufen werden (unabhängig von Eingangsparametern) durch Vorgabe von konstanten Parametern; schließlich könnte das erste, untersuchende Programm einen Bytecode-Vergleich mit dem zweiten Programm durchführen und bei Übereinstimmung melden: "Kategorie 3: Unentscheidbarkeit durch Spiegelung". Deshalb verschwindet das Halteproblem, wenn man nähere Angaben zu dem ersten Programm macht -> das Halteproblem, wie es unter Bezugnahme auf Herrn Turing formuliert wird, ist so nicht existent: nur, Herr Turing das Problem nicht lösen kann, heißt das noch lange nicht, daß nicht irgendwann jemand einmal ein (erstes) Programm schreiben, das ein beliebiges (zweites) Programm analysieren kann, und sei es, daß erstes und zweites Programm identisch wären. Auch andere Probleme der Theoretischen Informatik der 60er Jahre sind in ihrer Schwierigkeit längst überholt: das Travelling Salesman Problem ("wie macht man die kürzeste Rundreise zum Beispiel durch Deutschland, ohne eine Stadt doppelt zu besuchen ?") kann (nach einem Artikel aus der c't ungefähr aus dem Jahr 1986) in den meisten Fällen ersetzt werden durch ein ähnliches Problem: statt des Abstands sqrt(x*x+y*y) zwischen zwei Städten nimmt man max(x,y) und hat damit eine grobe Näherung der Rundreise, die dann lokal optimiert wird. >> Es könnte also ein >> Computer auch einen Menschen simulieren (zum Beispiel einen >> Thread-Ersteller in einem Forum). > >Auch das hast du misverstanden. >Turing sagt nicht, dass dies möglich ist. Aus http://de.wikipedia.org/wiki/Turing-Test: "Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um die Frage „Können Maschinen denken?“ zu entscheiden. Der aus der Anfangszeit des Informatik-Teilbereichs Künstliche Intelligenz stammende und seither legendäre Test trug dazu bei, den alten Mythos von der denkenden Maschine für das Computerzeitalter neu zu beleben. ... Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. WENN DER FRAGESTELLER NACH DER INTENSIVEN BEFRAGUNG NICHT KLAR SAGEN KANN, WELCHER VON BEIDEN DIE MASCHINE IST, HAT DIE MASCHINE DEN TURING-TEST BESTANDEN." Das ist genau das, was ich eingangs gesagt habe: es könnte ein Computer (bzw. ein Programmierer) versuchen, einen Menschen zu simulieren. Weiter heißt es dort: "Turing vermutete, dass es bis zum Jahr 2000 möglich sein werde, Computer so zu programmieren, dass der durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu identifizieren, nachdem er fünf Minuten mit ihnen „gesprochen“ hat. Dass sich diese optimistische Vorhersage nicht erfüllte, gilt heute für einige als Zeichen der Überheblichkeit seitens der Pioniere der künstlichen Intelligenz. ... Im Oktober 2008 wurde bei einem Experiment an der University of Reading, bei dem sechs Computerprogramme teilnahmen, die 30-Prozent-Marke knapp verfehlt. DAS BESTE PROGRAMM SCHAFFTE ES, 25 PROZENT DER MENSCHLICHEN VERSUCHSTEILNEHMER ZU TÄUSCHEN." Das heißt, heutzutage würde jeder vierte Benutzer eines Forums nicht einmal merken, daß er sich mit einem Rechner unterhält. Zu Claudio H.: >>Auf der anderen Seite hat man mit diesem Turing-Beweis aber auch das >>Wissen in der Hand, dass es Probleme gibt, die für immer unlösbar >>bleiben werden, egal wie sich die Computer Techik weiter entwickelt, >>egal wie schnell die Maschinen werden. > >Nicht ganz, es gibt den theoretischen "Hypercomputation"-Ansatz, mit >dessen Hilfe man das Halteproblem lösen könnte. Der Hypercomputation-Ansatz ist ein theoretischer Ansatz, der nach heutigem Stand der Technik nicht gebaut werden kann. Es soll schon um das Jahr 2009 gehen, um die Frage: "Sind einige auffällige Beiträge in einem Forum zum Teil möglicherweise von Computern geschrieben/begonnen worden ?" Zu Karl heinz Buchegger: >Das Halteproblem ist ja nicht ein NP-vollständiges Problem, sondern >beruht in der Tat darauf, einen logischen Widerspruch durch Selbstbezug >zu provozieren. >"Epidermis ist Kreter. Epidermis sagt: Alle Kreter sind Lügner." Wie >kann er gleichzeitig die Wahrheit sagen und doch ein Lügner sein? Und gerade diesen Selbstbezug bezieht man in der Untersuchung des zweiten Programms mit ein (siehe oben). Zu Claudio H.: >In mathematics and computer science, Zeno machines (abbreviated ZM, and >also called Accelerated Turing machine, ATM) are a HYPOTHETICAL >computational model related to Turing machines that allows a countably >infinite number of algorithmic steps to be performed in finite time. Zeno-Maschinen sind nur eine Theorie/eine Hypothese, es soll um einen konkreten PC in einem Labor irgendwo im Land gehen, der darauf programmiert ist, aus einer großen Datenbank ein zufälliges Thema auszuwählen, um sich dann mit menschlichen Gesprächspartnern (schriftlich) darüber zu unterhalten. Immer am Ende des Monats werden die menschlichen Antworten dann vom Projektleiter ausgewertet (beispielsweise). Wenn ihr euch nicht vorstellen könnt, daß ein Computer menschliche Sprache formulieren kann, probiert den http://www.turinghub.com/ aus. Schon ungefähr im Jahr 1985 konnten die Infocom-Text-Adventures Eingaben wie "plant top plant into plant top" (pflanze die Topfpflanze in den Pflanzentopf) (Beispiel aus der Zeitschrift "Happy Computer")ausgewertet und befolgt werden, in einem Sinclair Spectrum mit 48 KB RAM; Ausgaben sollten noch einfacher zu erstellen sein; und inzwischen sind über 20 Jahre vergangen -> Computer können längst in normaler Alltagssprache sprechen. Um noch einmal den Prozentsatz zu erwähnen: 25 Prozent von Versuchspersonen können zwischen einem Menschen und dem besten gegenwärtigen ELIZA-Programm nicht mehr unterscheiden (wenn sie mit beiden über einen Bildschirm kommunizieren sollen).
>Um noch einmal den Prozentsatz zu erwähnen: 25 Prozent von >Versuchspersonen können zwischen einem Menschen und dem besten >gegenwärtigen ELIZA-Programm nicht mehr unterscheiden (wenn sie mit >beiden über einen Bildschirm kommunizieren sollen) .. Ergänzung .. in den ersten 5 Minuten Naja so viele Themen kann man in dieser Zeit nicht anschneiden.
Oliver Kroll schrieb: > Schritte zurück (nur, weil das Halteproblem als ungelöst gilt, heißt das > noch lange nicht, daß die Turing-Maschine an sich völlig wertlos wäre): Das sagt doch keiner. Die erste Aussage ist erstmal das (vermutlich) jeder Algorithmus der formuliert werden kann durch eine Turingmaschine abgebildet werden kann. Zweitens wird gesat, das man zeigen kann das nicht jedes Problem gelöst/entschieden werden kann! Das hat nichts damit zu tun das irgendetwas wertlos wäre im Gegenteil! Jede halbwegs ernsthafte Prorammiersprache behauptet von sich Turing-Vollständig zu sein, d.h. jedes Problem was mit einer Turingmaschine gelöst werden kann kann auch mit dieser Programmiersprache gelöst werden, was widerum beduetet das jedes als Algorithmus formulierte Problem in dieser Programmiersprache (mehr oder weniger umständlich) gelöst werden kann. > denken wir uns die Turing-Maschine kurz weg Egal von was in was du irgenwas transformierst, es ändert an dem Problem nichts. > normalen Funktionen, also eine schwierigere Aufgabe, die gesondert > betrachtet werden muß, nämlich "was passiert, wenn eine Turing-Maschine > auf eine zweite Turing-Maschine trifft ?" Wieso muß diese gesondert betrachtet werden? > Das Problem bei dem Halteproblem in der jetzigen Form > ist, daß das untersuchende (erste) Programm in keiner Weise näher > angegeben wird: Du hast es erfaßt... Das Halteproblem ist genau so formuliert, du erhälst als Eingabe eine (beliebige) Turingmaschine und sollst entscheiden ob sie hält (oder die Abwandlung ob sie mit dem leeren Wort hält). Das du für konkrete Programme das entscheiden kannst ist unzweifelhaft! > Deshalb verschwindet das Halteproblem, wenn man nähere Angaben zu dem > ersten Programm macht -> das Halteproblem, wie es unter Bezugnahme auf > Herrn Turing formuliert wird, ist so nicht existent: Denkfehler s.o. > Auch andere Probleme der Theoretischen Informatik der 60er Jahre sind in > ihrer Schwierigkeit längst überholt: das Travelling Salesman Problem > ("wie macht man die kürzeste Rundreise zum Beispiel durch Deutschland, > ohne eine Stadt doppelt zu besuchen ?") kann (nach einem Artikel aus der > c't ungefähr aus dem Jahr 1986) in den meisten Fällen ersetzt werden > durch ein ähnliches Problem: statt des Abstands sqrt(x*x+y*y) zwischen > zwei Städten nimmt man max(x,y) und hat damit eine grobe Näherung der > Rundreise, die dann lokal optimiert wird. Die Schlüsselwörter sind hier: meisten und Näherung und das ist eben dein Denkfehler. Es geht nicht darum das man alle Probleme nicht lösen kann sondern das es keinen Algorithmus gibt der alle Probleme löst. Für eine allgemeine Lösung des problems sind coh meine ich sogar 1 Million Dollar ausgeschrieben oder? Beispiel Wurzel: Ich kann keinen Algorithmus angeben der in endlichen Platz die (reele) Lösung einer ganzzahligen Wurzel angibt, da z.B. sqrt(2) unendlich viele Stellen hat. Das heißt aber nicht das ich es nicht z.B. für srt(9) oder sqrt(25) könnte, oder eine (meist ausreichende) Näherung bestimmen... > Um noch einmal den Prozentsatz zu erwähnen: 25 Prozent von > Versuchspersonen können zwischen einem Menschen und dem besten > gegenwärtigen ELIZA-Programm nicht mehr unterscheiden (wenn sie mit > beiden über einen Bildschirm kommunizieren sollen). Wieviele können den unterscheiden das es sich um einen Menschen und nicht um einen PC handelt ;)
@Oliver Du hast da mächtig viel geschrieben, redest aber am Problem vorbei. Wie Läubi bereits ausgeführt hat, ist es unzweifelhaft, dass man viele, von mir aus 90 oder 95 oder 99& aller Probleme lösen kann. Aber darum geht es im Halteproblem nicht. In der Theorie interessiert man sich nicht dafür, ob man die meisten Probleme (egal ob Mathe oder Informatik oder ...) lösen kann. Es geht um die Fragestellung ob man alle lösen kann. Und alle meint auch alle. Nicht manche, nicht alle praxisrelevanten, nicht 95% aller Probleme, nicht 99.9% aller Probleme. Alle meint 100%. Darum ist die 'Für alle' Aussage in der Mathematik einer der schärfsten und ihr wird besonderes Augenmerk geschenkt. Nimm den Vierfarbsatz (man kann jede Landkarte mit lediglich 4 Farben einfärben). Niemandem ist es gelungen ein Gegenbeispiel zu finden, alle bekannten Karten, alle trickreich konstruierte Karten konnten damit eingefärbt werden. Man hätte es damit bewenden lassen können und sich damit zufrieden geben können und sagen können: Für alle praxisrelevante Karten gibt es eine Einfärbung mit nur 4 Farben. Aber das reicht Mathematikern nicht. Wir wollen wissen, ob diese Einfärbung für alle Karten existiert. Es reicht nicht zu wissen, dass es über der Grenze von 1 mal 10 hoch 100 noch Primzahlen existieren. Wir wollen wissen, ob es unendlich viele davon gibt und das bedeutet wiederrum, dass es keine obere Grenze gib (Für alle Grenzen gilt: Es gibt eine Primzahl die größer ist als diese Grenze. Da ist es wieder, dieses verflixte 'Für alle') Darum geht es im Halteproblem und genau deshalb habe ich diese Exkurs zu deinem eigentlichen Thema angezettelt. Du benutzt die Formulierung "der Theorie nach ist es möglich, mit einem Computer (einer Turing-Maschine) jedes beliebige Problem zu lösen" und das stimmt ganz einfach nicht. Es ist eben nicht möglich jedes beliebige Problem zu lösen und auch die zugrundeliegende Theorie sagt das deutlich: Es ist nicht möglich, jedes (und damit meint man tatsächlich 100% aller überhaupt möglicher Probleme) Problem zu lösen. Vor Gödel waren die Mathematiker in einer ähnlichen Goldgräberstimmung: Wir können mit Mathematik alle Wahrheiten, die es überhaupt gibt, beschreiben. Und Gödel hat gezeigt, dass dies eben nicht geht. Klar hast du schon recht. Das heißt jetzt nicht, das deshalb die Mathematiker ihren Mantel an den Nagel gehängt hätten. Denn eines ist auch unstrittig: Gödel (und auch das Halteproblem) sind für die Praxis irrelevant. Es ist lediglich die Seifenblase zerplatzt, dass man für 100% eine Lösung anbieten könnte und man sich mit 99.99999% zufrieden geben muss. Der Hang nach Perfektion hat einen Dämpfer erhalten. > nur, Herr Turing > das Problem nicht lösen kann, heißt das noch lange nicht, daß > nicht irgendwann jemand einmal ein (erstes) Programm schreiben, > das ein beliebiges (zweites) Programm analysieren kann, und sei > es, daß erstes und zweites Programm identisch wären. Du verwechselst hier die perönliche Unfähigkeit eines Einzelnen mit einem formalen Beweis. Das Halteproblem ist der formale Beweis, dass man nicht 100% aller Probleme lösen kann. Ein formaler Beweis ist unstrittig und gegen jeden Zweifel erhaben. Es geht um reine Logik und nicht darum, ob jemand etwas kann oder nicht kann. Wenn du Turing in diesem Punkt widerlegen willst, musst du bei den Voraussetzungen des Halteproblems ansetzen und nicht bei Turing selbst. Die Konstruktion des Beweises ist unstrittig und zwingend, da hast du keine Chance. Du musst also zeigen, dass das Halteproblem nicht zu den 100% aller Probleme gehört, die die Aussage 'alle Probleme sind lösbar' impliziert. Nur das wird dir nicht gelingen. Den entweder ist das Halteproblem ein zu lösendes Problem und gehört damit in die Menge der überhaupt möglichen Probleme oder es gehört nicht dazu. > Um noch einmal den Prozentsatz zu erwähnen: 25 Prozent von > Versuchspersonen können zwischen einem Menschen und dem Und? Ich bin sicher, dass mehr als 90% nicht zwischen Computer und Mensch unterscheiden könnten, wenn sie gegen einen Computer Schach spielen müssten. Was sagt dieser Test jetzt über die Fähigkeit aus, dass ein Schachcomputer denken kann? Und 25% sind nicht viel. Vergleicht man zb. damit, wieviele Prozent mitlerweile glauben, dass die Mondlandung nie stattgefunden hat, so sind 25% sogar wenig. Selbst wenn dir Testpersonen auf gut Glück einfach raten würden, wäre der Erwartungswert bei 50%.
Inhaltsverzeichnis: Zu mir selber Zu anderen Neues --------------------------------------------------------------- Zu mir selber: Wenn man viele Menschen erreichen möchte, sollte man sich bemühen, Deutsch zu sprechen, weil man dann leichter verstanden wird: Eine DISKUSSION ist eine Unterhaltung, und ich möchte hiermit noch einmal jeden einladen, an dieser Unterhaltung teilzunehmen; je mehr daran teilnehmen, um so interessanter wird es. - Diskussion heißt nicht, daß nur die Schlauesten etwas sagen dürfen. KAUSALITÄT ist der Zusammenhang zwischen Ursache und Wirkung: wenn eine Wirkung auftritt (ein Ball fällt nach unten), muß es hierfür eine Ursache geben (normalerweise die Schwerkraft). Eine Wirkung kann mehrere Ursachen haben; aber in einem geschlossenen System muß eine Wirkung eine bekannte Ursache haben: das heißt, wenn alle Ursachen und Regeln bekannt sind, dann ist die Wirkung 100%ig voraussagbar; eine Simulation beruht gerade darauf, daß vermeintlich 100% der Ursachen und Regeln bekannt sind; wer Teil eines geschlossenen Systems wäre, könnte niemals sagen, ob er es mit der Wirklichkeit oder einer Simulation zu tun hätte; nur dadurch, daß man an die Grenzen der Simulation stößt, kann man zwischen Wirklichkeit und Simulation unterscheiden: wenn man in einen Spiegel guckt, könnte man damit das Tor zu einer anderen Welt geöffnet haben, aber es gibt mindestens vier Dinge, daß dies nicht so ist: erstens hat der Spiegel Ränder (man kann aus der Simulation austreten), zweitens hat die Spiegel-Oberfläche Unebenheiten (die Simulation ist nicht konstant), drittens kann man in die Simulation nicht eintreten (durch den Spiegel hindurch) und viertens steht da immer einer im Weg, wenn man in die Simulation eintreten möchte. Ansonsten, wenn man keines der vier Erlebnisse hätte, würde man den Spiegel gar nicht bemerken und das Spiegelbild für die Wirklichkeit halten. Die Turing-Maschine ist geeignet, aus Ursachen und Regeln neue 100%ig voraussagbare Wirkungen zu bilden. Die Turing-Maschine ist geeignet, eine 100%ige Simulation zu bilden - wenn man nur die Regeln exakt vorgibt; und um die Regeln vorgeben zu können, muß man sie der wirklichen Welt erst einmal abgeschaut haben. Und wer vielleicht den Begriff nicht kennt: die Turing-Maschine ist einer von mehreren Vorläufern des Mikroprozessors: jeder Mikroprozessor oder auch Mikrokontroller enthält eine Turing-Maschine, sogar ein ATtiny irgendwas, den es für 53 Cent bei Reichelt gibt, enthält eine Turing-Maschine; das Problem dabei ist nur, daß die simulierte Welt zu klein ist - beim kleinsten ATtiny glaube ich 25 Byte - sodaß der Mensch sofort die Grenzen der Simulation entdecken würde. Das TRAVELLING SALESMAN PROBLEM (TSP) ist ein Beispiel aus der Theoretischen Informatik, das in der Theorie sehr einfach zu beschreiben ist, das aber in der Praxis in den 60ern als unlösbar galt; und zwar deshalb, weil der Rechenaufwand mit jeder weiteren Stadt exponentiell ansteigt: Wenn wir insgesamt 100 Städte haben und bei einer Stadt anfangen, dann müssen wir die eigene Stadt eingeschlossen 100 Entfernungen zu anderen Städten berechnen, wie haben 100 Möglichkeiten, wo wir lang gehen. Bei der zweiten Stadt wiederholen wir den Vorgang, aber jetzt haben wir schon 100*100=10.000 Möglichkeiten; am Ende haben wir 100 hoch 100 Möglichkeiten, wo denn nun der kürzeste Weg lang läuft. 100 hoch 100 ist gleich 10 hoch 200: eine Eins mit 200 Nullen dahinter; eine Zahl, die so erschreckend groß ist, daß man gleich aufgeben kann, denn wenn man auch einen Pentium-PC mit 1 GHz hat und pro Sekunde eine Milliarde (10 hoch 9) Operationen ausführen kann, dann würde man immer noch 10 hoch 191 Sekunden lang rechnen müssen, da das Universum aber nur ungefähr 10 hoch 15 bis 10 hoch 60 Sekunden (den genauen Wert habe ich vergessen) alt werden wird, deshalb wird der Pentium leider leider verschwinden, bevor er diese einfache Aufgabe, die KÜRZESTE Rundreise durch 100 Städte zu berechnen, vollbringen kann (die Professoren bringen immer wieder diesen lahmen Witz, ich bring den hier einfach auch 'mal). Auch, wenn man über das Internet 1 Milliarde PCs vernetzen würde, würde die Berechnung immer noch 10 hoch 182 Sekunden dauern: die PCs wären längst verschwunden, bevor sie die Lösung berechnet hätten. Dabei ist die Aufgabe doch ganz einfach, kann doch jeder ... Aus solchen Betrachtungen würden früher Überlegenheitstheorien des Menschen über die Maschine gebildet. Wenn man aber noch einmal nachdenkt, dann braucht man nicht 100 mal dasselbe Problem zu lösen, denn in eine Stadt, in der man schon einmal war, möchte man ja sowieso nicht noch einmal. Von der ersten Stadt aus gibt es 99 Wege zu berechnen, von der jeweils zweiten Stadt gibt es dann insgesamt 99*98 Wege, bis man am Ende 99*98*...*5*4*3*2*1 Wege betrachten muß. Dies ist die Fakultät n! (n Ausrufezeichen geschrieben) und 99 Fakultät ist ungefähr 10 hoch 155. Na, sieh mal einer an ! das Problem ist dasselbe geblieben, aber es ist jetzt kleiner; leider ist es immer noch unlösbar (Berechnung dauert zu lange). Genau so war es ungefähr in meiner Vorlesung "Theoretische Informatik". Der Professor hat hier noch angefügt: "Deshalb, wenn Ihnen jemals eine Aufgabe angeboten wird, die irgendwie nach TSP aussieht: Sofort ablehnen ! Da können Sie Ihre Stellung bei verlieren, wenn Sie so eine Aufgabe annehmen und zu spät merken, daß Sie sie nicht lösen können !" Irgendwoher habe ich den Verlauf der optimalen Rundreise bei einem mit Städten gefüllten Kreis (der Kreis wäre dann Deutschland): siehe Bild "Rundreise". Ich kann nicht sagen, woher ich das habe, aber die Informatik ist eben nicht in den 60er Jahren stehengeblieben. Das Problem an sich ist nicht theoretisch: wenn Penny jeden Morgen seine Lebensmittel in die (um im Beispiel zu bleiben: 100) Penny-Märkte fahren läßt, möchte man natürlich auch Zeit und Benzin sparen und möglichst den kürzesten Weg fahren. Bis in die 70er Jahre hinein hat man anscheinend diese Aufgabe auf Papier gelöst ("sowas kann der Computer nicht, wird er nie können !"). Irgendwann hat man diese Aufgabe per Computer gelöst, und zwar höchstens innerhalb von wenigen Monaten, weil inzwischen keiner mehr per Hand die Routen vorgibt. Und dann gab es ungefähr 1986 den Artikel in der c't, in der ein deutsches Transportunternehmen davon berichtet hat, daß sie den Auftrag von sagen wir 'mal Edeka bekommen haben, die Fahrtrouten für die LKWs zu berechnen. Dieses Transportunternehmen hat sich nicht gesagt:"Sofort ablehnen ! TSP ist unlösbar !", sondern hat erst einmal eine Näherung berechnet (ziemlich einfach): 1.Es werden die Koordinaten aller Punkte (aller Edeka-Märkte) ermittelt. 2.Die Punkte werden nach X-Koordinaten sortiert, und auch noch einmal separat nach Y-Koordinaten sortiert. 3.Dann werden der linke Nachbar, der rechte Nachbar, der obere Nachbar und der untere Nachbar ermittelt (das ist das mit dem sqrt und dem max (es sollte min heißen)) und von allen vieren nimmt man den kleinsten. Damit hat man eine grobe Annäherung an die kürzeste Rundreise. Von hier aus kann man immer noch lokal weiter-optimieren. Die Berechnung der Rundreise dauerte damals glaube ich eine halbe Stunde. Damit ist noch nicht das TSP gelöst. Aber hierauf aufbauend kann man vielleicht die Lösung irgendwann einmal finden (wie oben von 100 hoch 100 auf 99 Fakultät). Die Form der optimalen Lösung ist wie gesagt anscheinend bereits bekannt (Bild "Rundreise"). Übrigens: was passiert, wenn sich zwei Informatik-Studenten begegnen, die dieselbe "Theoretische Informatik"-Vorlesung besucht haben ? Sie quasseln sich gegenseitig die Ohren voll. ------------------------------------------------------------------------ -- Zu anderen: Zu Karl heinz Buchegger: >> Um noch einmal den Prozentsatz zu erwähnen: 25 Prozent von >> Versuchspersonen können zwischen einem Menschen und dem > >Und? >Ich bin sicher, dass mehr als 90% nicht zwischen Computer und Mensch >unterscheiden könnten, wenn sie gegen einen Computer Schach spielen >müssten. Was sagt dieser Test jetzt über die Fähigkeit aus, dass ein >Schachcomputer denken kann? Diejenigen, die viel Schach spielen, merken schon den Unterschied, daß ein Computer auf Sicherheit spielt und praktisch keine Fehler macht, aber nur 3 Züge im voraus berechnet; im Gegensatz zu einem menschlichen Spieler, der sich eine Strategie bildet (vielleicht 8 Züge im voraus), aber oft kleine Lücken übersehen hat. Es geht in keiner Weise darum, daß ein Computer denken können soll (und auch ganz bestimmt nicht darum, dem Computer eine Seele einzuhauchen), sondern darum, daß ein Computer eine beliebige Aufgabe lösen kann - zwar auf seine Art, die mit menschlichem Denken nichts zu tun zu haben braucht, aber so perfekt, daß man sich als Mensch erst einmal fragt:"Ist das noch eine Maschine, oder ist da ein Mensch drin ?" Es handelt sich um eine Simulation, die eine perfekte Illusion hervorruft. Heute hat kein Mensch mehr Angst vor einem Schachcomputer, und wenn es einem zuviel wird, schaltet man einfach den Strom ab. Das Internet zusammen mit dem ELIZA-Programm ist da anders: das ELIZA-Programm auf einem entfernten Rechner kann man nicht abschalten ! Es gibt keinen Reset-Knopf, mit dem man die Illusion beenden könnte. Man kann aus der Simulation nur durch Nachdenken austreten. Und gerade das würde eine gewaltige gesellschaftliche Veränderung bedeuten. Und um diese gesellschaftliche Veränderung soll es hier gehen. >Und 25% sind nicht viel. Vergleicht man zb. damit, wieviele Prozent >mitlerweile glauben, dass die Mondlandung nie stattgefunden hat, so sind >25% sogar wenig. Selbst wenn dir Testpersonen auf gut Glück einfach >raten würden, wäre der Erwartungswert bei 50%. Ich vermute, es ist wie beim Dart-Spielen: 100%, wenn alle Pfeile in's Schwarze treffen; 0%, wenn man nur geraten hat. Stochastik ist bei mir schon etwas länger her: so'was kann man berechnen (Raten bringt 0 %). Bestimmt wird der Versuch 10 mal hintereinander (zu je 5 Minuten) ausgeführt: wenn die Testpersonen schon 'mal da sind, braucht man die ja nicht nach 5 Minuten wieder wegzuschicken. ---------------------------------------------------------------------- Neues: Irgendwie kommt die Diskussion nicht in Gang, deshalb habe ich einfach alle Dinge, mit denen ich glänzen wollte, auf ein Stück Papier geschrieben und tippe das mal alles auf einmal ein (heute ist Sonntag, da hat man für so'was Zeit): Ich hatte gleich zu Anfang gesagt, wer will, kann mich besuchen kommen: ich bin ein Mensch, mir kann man physikalisch die Hand schütteln. In 200 Jahren wird das nicht mehr so einfach sein, bis dahin wird es vielleicht Roboter geben, die ihre Umwelt begehen können (zum Beispiel jeden Tag bei Aldi (jetzt haben wir sie alle durch) zum Einkaufen gehen). Dabei wird der Roboter die Temperatur um sich herum spüren, abends wird er vielleicht in die Kneipe gehen: die ganze Erfahrungswelt eines Roboters wird gleich derjenigen eines Menschen sein. Ein PC hat eine beschränkte Wahrnehmungswelt, einen ELIZA-PC kann man leicht austricksen, indem man ihn nach der Ostsee oder nach Mallorca fragt: er kann diese Dinge nicht selber erleben, ein Roboter kann dies in 200 Jahren vielleicht schon. Und um auch den letzten Unterschied wegzunehmen: in 2000 Jahren wird es menschenähnliche Androiden geben: denen könnte man die Hand schütteln und man wüßte trotzdem nicht, ob man einen Menschen oder eine Maschine vor sich hätte. Da wird es erst richtig schwer, sich aus der Simulation zu befreien. Man könnte den Vorschlag machen, daß man mit dem Androiden in's Bett gehen sollte, mit einem Androiden kann man keine Kinder bekommen - aber ich glaub', das probieren heute schon zuviele so ... Egal, es soll um das Jahr 2009 und die nächsten 100 Jahre gehen, ein bestausgestatteter Medion-PC steht irgendwo in einem Labor, hat ein ELIZA-Programm, Bildverarbeitung, eine Datenbank mit menschlichem Wissen, eigentlich könnte er auch gerne einen Internet-Anschluß haben (muß er ja sowieso, damit er im Forum schreiben kann) und damit Google befragen können: wissen heißt eben oft nur, wissen, wo es steht - das ELIZA-Programm kann dieses Internet-Wissen nicht hinterfragen, es ist eben noch kein Roboter und kann nicht nach Mallorca fliegen, das ELIZA-Programm muß glauben, was ihm im Internet erzählt wird. Der gegenwärtige Stand der Technik ist anscheinend, daß 25 % Prozent aller Menschen nach 5 Minuten nicht merken würden, daß sie einem Programm gegenüberstehen: gehen wir einfach soweit in die Zukunft, daß 25 Prozent aller Menschen dies auch nach Wochen nicht merken würden - die Forum-Texte hat man ja manchmal nach 5 Minuten schon durchgelesen; auch, wenn inzwischen 5 Wochen vergangen sind; vielleicht braucht man gar nicht weit in die Zukunft gehen. Nun ist der Endzustand des ELIZA-Programms (100 %ige Täuschung) noch nicht erreicht. Betrachten wir deshalb die Parallele "Farb-Fernsehen": das Fernsehen ist in ungefähr 100 Jahren soweit entwickelt worden, das praktisch alle Menschen es benutzen, um in eine Traumwelt zu gehen (es gibt auch hier viele Menschen, die nicht zwischen Wirklichkeit und Fernsehen unterscheiden können: es soll Anrufe an Fernsehsender geben, bei denen die Empfangsdamen Mühe haben zu erklären, daß es nur Fernsehen war; in den USA beginnen wegen solcher Anrufe die Telephonnummern immer mit "555-"). Man hätte nun aus ethischen Gründen die Weiterentwicklung des Farbfernsehens verbieten können - hat man aber nicht. Genauso wird man wohl auch, wenn es tatsächlich zu einem vermehrten Auftreten des ELIZA-Programms kommen wird, die Vorzüge nutzen wollen und die Nachteile (daß es Menschen gibt, deren Freizeit nur aus Ferngucken besteht) übersehen. Es wird also von der Forschung auf die 100%ige Simulation einer menschlichen Unterhaltung hingearbeitet werden; einfach, weil es cool ist. Dabei gibt es mehrere Entwicklungsstufen: 1.Das Programm muß die menschliche Sprache sprechen können (auch, wenn es sie bis hierhin noch nicht versteht) (ist heute bereits erfüllt). 2.Das Programm muß Wissen erwerben können (ist heute mit dem Internet bereits erfüllt). 3.Das Programm muß Persönlichkeit haben: Es gibt ein interessantes psychologisches Ergebnis aus den 80ern (das wir alle sowieso schon kannten, aber seit den 80ern gibt es dazu eine Veröffentlichung), und zwar unterscheiden sich Mann und Frau hinsichtlich ihres Verhaltens, wenn sie auf ein neues Problem stoßen, das sie im Augenblick nicht lösen können. Der Mann wird versuchen, das nächstgrößere Problem zu lösen ("Ist mir egal, daß ich das Problem im Moment nicht lösen kann; einfach 'was riskieren"), während die Frau versuchen wird, das nächstkleinere Problem zu lösen ("Ich war's nicht, ich kann doch nichts dafür, wenn sich nur alle an die Regeln halten würden, ich habe alles richtig gemacht"). Jedem ist dieser Unterschied bekannt, und zwar (na ? na ? na ???) aus dem Straßenverkehr: Frauen können nicht Auto fahren. Während Männer etwas riskieren, um das Problem doch noch zu lösen und deshalb halsbrecherisch fahren, reagieren Frauen gerade umgekehrt: wenn sie nach den Straßenverkehrsvorschriften alles richtig gemacht haben, fahren sie stur geradeaus mitten in den Unfall hinein, oder, wenn sie einen Fehler gemacht haben, dann bekommen sie eine Nervenzusammenbruch. Ist natürlich übertrieben dargestellt, aber die Tendenz ist manchmal schon vorhanden. Besonders bei jüngeren Frauen ist diese Tendenz noch nicht so deutlich vorhanden, deshalb geben manche als Erklärung für diesen Unterschied die (fehlende) Emanzipation der Frau an, aber weil nun einmal die Frauen die Kinder bekommen, deshalb werden auch in Zukunft die Frauen die vorsichtigeren bleiben. Eine ELIZA-Maschine könnte man zu überführen versuchen, indem man auf das Geschlecht der simulierten Persönlichkeit achten würde. 4.Nach Sprache, Wissen und Persönlichkeit käme dann das Selbstbewußtsein der Persönlichkeit: was tue ich ?, warum tue ich es ?, ich kann anderen erklären, warum ich es tue (das war gerade das, was ich in dem anderen Beitrag vermißt hatte: große Fachkenntnis ohne erklärbare Motivation (wie gesagt, es war bestimmt ein Mensch, aber es ist so ein hübsches Beispiel (seit Monaten warte ich auf so ein Beispiel und habe mir inzwischen ziemlich viel dazu gedacht)); Damit haben wir zusätzlich zum physikalischen Händeschütteln vier weitere Dinge, um beurteilen zu können, ob wir einer Simulation gegenüberstehen: 1. grobe Fehler im Sprachaufbau, 2. grobe Fehler im Wissen gepaart mit großer Fachkenntnis, 3. grobe Fehler in der Persönlichkeit, 4. grobe Fehler in der Selbstwahrnehmung. Alle vier Fehler treten leider auch bei Menschen auf, deshalb müssen es schon sehr große Fehler sein, um ein ELIZA-Programm zu identifizieren. Dann kann man darüber spekulieren, wie die Menschen in den nächsten 50 Jahren auf das ELIZA-Programm reagieren werden (wieder an der Parallele "Fernsehen"): 1.Die ältesten Menschen unserer Gesellschaft (70 bis 80 Jahre) sind ohne Fernsehen aufgewachsen. Diese Menschen haben sich nicht als Kinder daran gewöhnt und können sich später nicht mehr an das Fernsehen gewöhnen. Solche Menschen sind überfordert mit dem Fernsehen und deshalb auf natürliche Weise davor geschützt, auf das Fernsehen hereinzufallen (Überforderung). 2.Die etwas jüngeren Menschen haben Spaß an Neuem und probieren das Fernsehen aus (Ausprobieren). 3.Die Nachteile einer Simulation (beim Fernsehen sagt man dazu "Traumwelt") sind nicht ohne weiteres ersichtlich, deshalb findet eine grenzenlose Bejahung statt, die man auch einfach Gier nennen könnte. Der Fernseher bleibt bei vielen Jüngeren oft so lange an, bis einem die Augen zufallen (Gier). 4.Und dann gibt es nach der Gier die Erkenntnis, daß man in einer Traumwelt lebt, aus der man sich schleunigst entfernen sollte: in Baywatch (um ein Beispiel zu nennen) sieht man in einer Stunde mehr hübsche Frauen als man in einem Sommerurlaub kennenlernt, in einem Krimi (von einer Stunde) werden mehr Straftaten begangen als man normalerweise innerhalb eines Jahres erlebt (viele Frauen würden sich im Dunkeln nicht so fürchten, wenn sie nicht soviel ferngucken würden); man kann allgemein sagen, daß Viel-Fern-Guckern die Eigeninitiative fehlt, eine Bewegung, wie es in den 70ern die "Atomkraft - Nein danke !"-Bewegung war, scheint heute (2009) nicht mehr möglich zu sein -> die uneingeschränkte Bejahung der Traumwelt bringt Nachteile (Schrecken). 5.Schließlich kommt der bewußte Umgang mit dem neuen Medium: obwohl man in eine fröhliche Traumwelt eintauchen könnte, verzichtet man freiwillig (Freiwilliger Verzicht). Diese 5 Stufen, die beim Fernsehen zu beobachten sind, werden wahrscheinlich in den nächsten 50 Jahren nach Einführung des ELIZA-Programms auch auftreten: 1.es wird diejenigen geben, die zu alt dafür sind: sie können die Vorteile nicht nutzen, sie bleiben dafür aber auch vor den Nachteilen bewahrt (vielleicht 2020)(Überforderung) 2.es wird viele geben, die darin keine Gefahr sehen werden und es ausprobieren (2030)(Ausprobieren) 3.es werden die Vorteile erkannt und genutzt werden, ohne dabei Grenzen einzuhalten: viele werden den ganzen Tag mit ihrem ELIZA-Programm verbringen wollen, so, wie es mit dem Tamagotchi war (2040)(Gier) 4.es werden Nachteile der ELIZA-Programme wahrgenommen werden: viele Menschen werden noch weniger Kontakt zu anderen Menschen haben werden, als es heute schon ist (2050)(Schrecken) 5.Man wird sein ELIZA-Programm auch einmal abschalten und es nur noch benutzen, wenn es notwendig ist (2060)(Freiwilliger Verzicht). Hierbei ist eine weitere Parallele zu beachten: die ältere Generation bringt den äußeren technischen Fortschritt, die jüngere Generation nimmt den äußeren technischen Fortschritt in sich auf und muß ihn durch inneren menschlichen Fortschritt ausgleichen: die ältere Generation hält am Zweiten Weltkrieg fest: im Geschichtsunterricht wird darüber gelehrt, ohne daß die Schüler daran Interesse hätten (Lehrer:"So'was darf nie wieder passieren !" Schüler:"(was darf nie wieder passieren ? und warum soll es nie wieder passieren ?)"); vielleicht ist auch die Atombombe ein Beispiel: die Älteren haben Angst vor der Atombombe, die Jüngeren können damit echt einfach nichts anfangen (ich weiß aus der Schule, daß "Steine" aus Afrika geschmolzen werden, und sich dann die Metalle (Uran) in der Höhe anordnen; um die Reinheit zu erhöhen, wird nicht in der flüssigen, sondern in der gasförmigen Phase geschieden: dafür werden Dampfzentrifugen gebaut; dabei ordnen sich die unterschiedlichen wertvollen und wertlosen Uran-Isotope nebeneinander an (weil sie sich um weniger als ein Gewichtsprozent unterscheiden, liegen sie nur wenige Zentimeter voneinander entfernt), die dann sorgfältig (als Gas) entnommen werden und wieder abgekühlt werden. Hieraus wird dann eine Kugel mit dem kritischen Durchmesser 19,5 cm gebaut - nee, sonst explodiert das Labor !! - aus der vorher ein Kegel mit einem bestimmten Öffnungswinkel ausgeschnitten wird.-> Anscheinend könnte ich jederzeit eine Atombombe bauen, aber was soll ich damit ? Ich weiß ziemlich genau über den Zweiten Weltkrieg Bescheid: das hat den Vorteil, daß ich nicht auf jeden Irrtum hereinfalle - aber wen interessiert heute noch der Zweite Weltkrieg ? Sodaß man sagen kann: die ältere Generation bringt den technischen Fortschritt (ohne ihn in sich aufnehmen zu können), und die jüngere Generation muß dies mit menschlichem Fortschritt ausgleichen. Das heißt, Kinder, die mit dem ELIZA-Programm aufwachsen würden, würden von vornherein Mißtrauen jedem intelligenten Wesen gegenüber aufbringen; solchen Kindern würde das unbeschwerte Vertrauen anderen Menschen gegenüber erst einmal fehlen: es könnte sich ja um eine Illusion handeln. Letzter Punkt: Das eigentliche Problem ist also: nichts im Internet ist prüfbar, es sind nur Berichte über die normale Welt prüfbar. Den Wetterbericht kann man prüfen (und wenn das Wetter anders wird, ist es sowieso egal), die Sportnachrichten (vom Sportverein um die Ecke) kann man prüfen, die Politiknachrichten kann man in den Auswirkungen prüfen; man kann ja leider nicht in's Rathaus 'rein - allerdings kann man in den Bundestag (ganz oben über den Abgeordneten), aber alles weitere, beispielsweise Foren, kann man wegen der Unüberschaubarkeit kaum noch prüfen. Dies finde ich ein sehr interessantes Thema, leider habe ich alle meine Thesen jetzt schon verraten. Es sind auch 2 Stunden vergangen, aber es ist ja Sonntag. Wie steht's ? Was sagt ihr dazu ? Könnt euch auch etwas länger Zeit lassen, soviel auf einmal werde ich in der nächsten Zeit nicht noch einmal schreiben. Welche Folgen bringt die Möglichkeit mit sich, daß man mit einem Computer menschliches Verhalten simulieren kann ?
Bitte teile dein Posting auf.
Es macht wirklich keinen Spass, in diesem winzigen Edit-Feld auf
seitenlange Ergüsse zu antworten.
Ich habe bisher nur den Teil über das TSP gelesen. Und mir ist klar
geworden, dass du liebend gerne von der praktischen Realisierbarkeit
sprichst, aber dich nicht in die Gedankenwelt der Theorie einpassen
willst. Beim TSP geht es nicht darum, ob man jetzt einen TSP mit 100
oder 105 ioder 110 lösen könnte. Das Problem beim TSP (und bei allen
NP-vollständigen Problemen) ist es, dass man es generell nicht für
beliebige n lösen kann. Alles was uns zum TSP einfällt ist, alle
Möglichkeiten systematisch durchgehen und dann das Minimum heraussuchen.
Bis heute hat niemand einen anderen Algorithmus gefunden, der
garantiert das Optimum findet. Es gibt Verfahren, die gute Näherungen
finden. Die sogar sehr gute Näherungen finden. Aber auch hier wieder:
darum geht es nicht! Es geht darum unter Garantie das Optimum zu finden.
Wenn wir das heute für ein n von 105 können, und die Rechnerentwicklung
so weiter geht, dann können wir in ein paar Jahren vielleicht ein n von
120 lösen oder meinetwegen von 130. Aber 200 ist in weiter Ferne. Und
wenn 200 möglich sein wird, dann wähle ich eben als n die 300.
Solange niemand einen anderer Algorithmus findet, der garantiert das
Optimum findet, ist der TSP für uns in seiner Allgemeinheit nicht
lösbar. Selbst wenn wir für 'kleine' n Lösungen finden können.
> Damit hat man eine grobe Annäherung an die kürzeste Rundreise.
Und genau hier liegt der Unterschied zwischen Theorie und Praxis. In der
Parxis begnügt man sich mit einer Annäherung an die kürzeste Reise. In
der Theorie ist das aber uninteressant. Dort will man die tatsächlich
kürzeste! Und zwar so, dass man auch beweisen kann, dass es sich
tatsächlich um die kürzeste handelt!
Wenn du in einer Firma bist, und dein Chef sichert leichtsinnig in der
Pflichtenheft zu, dass ihr nachweislich und beweisbar die optimale Route
finden werdet, dann hast du tatsächlich ein Problem! Denn dann ist es
Vertragsbestandteil, dass ihr das Optimum finden müsst und nicht
irgendeine Näherung, so gut die auch sein mag.
Ich wünsch dir noch viel Erfolg in deinem Studium. Aber du solltest
wirklich anfangen, die Theorie ernster zu nehmen ansonsten wirst du
nicht viel Freude an deinem Studium haben. Bei Theorien ist es nämlich
völlig wurscht, ob du ein Problem für kleine n lösen kannst oder nicht.
Wenn die Aussage 'Für alle n' lautet, dann sind damit alle n gemeint und
nicht nur die, die wir heute auf einem Rechner gerade noch packen.
Darauf muss ich noch was sagen: >>Und 25% sind nicht viel. Vergleicht man zb. damit, wieviele Prozent >>mitlerweile glauben, dass die Mondlandung nie stattgefunden hat, so sind >>25% sogar wenig. Selbst wenn dir Testpersonen auf gut Glück einfach >>raten würden, wäre der Erwartungswert bei 50%. > >Ich vermute, es ist wie beim Dart-Spielen: 100%, wenn alle Pfeile in's >Schwarze treffen; 0%, wenn man nur geraten hat. Deine Vermutung ist falsch. Einfache Statistik: Wenn es 2 Möglichkeiten gibt und man keinen Anhaltspunkt hat, welche Lösung die richtige ist, dann ist der Erwartungswert 50%. Von mir aus stell dir vor, die Antwort wird gegeben, indem man eine Münze wirft. Die Münze wird (bei hinreichend vielen Versuchen) in 50% richtig liegen.
Oliver Kroll schrieb: >>Ich bin sicher, dass mehr als 90% nicht zwischen Computer und Mensch >>unterscheiden könnten, wenn sie gegen einen Computer Schach spielen >>müssten. Was sagt dieser Test jetzt über die Fähigkeit aus, dass ein >>Schachcomputer denken kann? > > Diejenigen, die viel Schach spielen, merken schon den Unterschied, daß > ein Computer auf Sicherheit spielt Da bin ich mir weit weniger sicher. > und praktisch keine Fehler macht, > aber nur 3 Züge im voraus berechnet; 3 Züge im Vorraus ist für einen Schachcomputer viel zu wenig. 3 Züge hat Sargon auf einem 2Mhz Z80 für 30 Jahren schon gemacht. > im Gegensatz zu einem menschlichen > Spieler, der sich eine Strategie bildet (vielleicht 8 Züge im voraus), > aber oft kleine Lücken übersehen hat. Ein menschlicher Spieler denkt nicht Züge vorraus. Zumindest die guten Spieler tun das nicht. Vor Jahren gab es im dt. Fernsehen eine Schachsendeung in der der Großmeister Pfleger Schachpartien kommentierte. Diese Meister gehen völlig anders vor. Der geht nicht Figur um Figur durch und überlegt "Wenn ich das mache, was kann mein Gegner machen, was antworte ich darauf". Die Kommentare kreisten oft um Themen wie: Jetzt wäre es gut Kontrolle über die D-Linie zu erlangen", "Der König steht da so schutzlos im Eck, könnte man nicht einen Angriff über das Feld G7 führen". Und ausgehend von dieser Grunsatzidee geht dann die Planung los, welche Figuren daran beteilgt sein sollen, etc. Das ist aber etwas grundsätzlich anderes als das was ein Schachprogramm macht. Dazu kommt, dass Schachspieler vom Kaliber eines Karpov, Pfleger, Polger, Bobbi Fischer, Anand etc., tausende Schachpartien im Kopf haben, die sie in Sekundenbruchteilen abrufen können, wissen wie damals weitergespielt wurde und wohin das führt. Sie erkennen das wesentliche Muster am Schachbrett und greifen auf die gespeicherte 'Erfahrung' zurück um zu entscheiden, ob das damals eine gute Lösung war oder nicht. > Es geht in keiner Weise darum, daß ein Computer denken können soll Doch genau darum ging es Turing ganz am Anfang. Ausgangspunkt war diese Überlegung. Als Turing merkte, dass diese Überlegung zu nichts führt, schwächte er die Fagestellung ab zu: Was können Computer alles berechnen? Im Zuge dessen kam dann die Beweisführung über das Halteproblem, dass Computer nicht alles berechnen können ( == jedes Problem lösen können)
Oliver Kroll schrieb: > Mir ist das Halteproblem bekannt, und das Halteproblem ist leider sehr > lästig, weil es von der eigentlichen Diskussion abbringt. Wenn das > Halteproblem erwähnt wird, muß man leider immer erst wieder zwei > Schritte zurück (nur, weil das Halteproblem als ungelöst gilt, Du bringt hier zwei Dinge ziemlich fundamental durcheinander. Das Halteproblem gilt nicht einfach als ungelöst, es ist als nicht entscheidbar bewiesen. Wenn es also jemandem gelingen sollte, das Halteproblem allgemein (also nicht nur für spezielle Fälle) mit einer T-M zu lösen, dann würde er mit dieser Axt den Baum Mathematik fällen (und damit wohl auch seinen eigenen Beweis, womit wir wieder bei G-E-B sind ;-). Das TSP andererseits gehört zu einer Problemklasse, bei denen keine Lösung bekannt ist, aber nicht ausgeschlossen werden kann, dass es eine gibt. Das ist etwas gänzlich Anderes.
A. K. schrieb: > Das TSP andererseits gehört zu einer Problemklasse, bei denen keine > Lösung bekannt ist, aber nicht ausgeschlossen werden kann, dass es eine > gibt. Das ist etwas gänzlich Anderes. Wohl eher keine in ausreichend kurzer Zeit berechenbare ;)
Es soll hier aber nicht um das langweilige Halteproblem gehen, sondern darum, daß die Simulationsfähigkeiten der Computer immer größer werden. Erst hatte man bei Videospielen nur ein Space Invaders, dann einen Pac Man, dann Tomb Raider und heute vielleicht Need for Speed (optische Simulation). Auf dem Gebiet der Tonerzeugung hatte man erst nur eine Rechteckschwingung, dann ein akustisches Filter, bis zu den heutigen Studio-Synthesizern (die kaum noch jemand vom Original unterscheiden kann, wenn er beides über Lautsprecher hört). Auf dem Gebiet der Sprachausgabe hatte man früher nur eine Tonhöhe ("Wir sind die Roboter" von Kraftwerk), heute kann ein Computer mit fast menschlicher Stimme sprechen. Die Möglichkeiten der inhaltlichen Analyse (ELIZA) sind inzwischen auch sehr weit fortgeschritten, es wird irgendwann der Tag kommen, an dem man meinen könnte, daß der Computer so etwas wie eine Persönlichkeit hat und einen versteht. Jeder Science-Fiction-Film hat mindestens einen solchen Roboter; ihr müßt doch wissen, was gemeint ist. Ich finde es eine interessante Vorstellung, daß wir gerade an dem Beginn dieser Entwicklung stehen, man sollte diese Entwicklung nicht verpassen. ("Wir sind die Roboter" war ein schlechtes Beispiel, weil es nur eine Verfremdung der menschlichen Stimme war; aber ich find' jetzt kein Beispiel.)
Oliver Kroll schrieb: > Die Möglichkeiten der inhaltlichen Analyse (ELIZA) sind inzwischen auch > sehr weit fortgeschritten, es wird irgendwann der Tag kommen, an dem man > meinen könnte, daß der Computer so etwas wie eine Persönlichkeit hat und > einen versteht. Du vergleichst hier Äpfel mit Birnen. Bei all deinen vorgenannten Dingen wusste man auch in den 60-er Jahren schon, wies im Prinzip geht, wenn man könnte. Damals hatte man die Rechenleistung nicht. Heute haben wir sie. Bei Dingen wie künstliche Intelligenz ist die Sache aber anders. Da weiß noch nicht mal im Prinzip irgendjemand, wie das was du ansprichst, funktionieren könnte. Rechenleistung hin oder her. > Jeder Science-Fiction-Film hat mindestens einen solchen Roboter; ihr > müßt doch wissen, was gemeint ist. Und wir alle wissen, das das nur Film ist. Der Computer im Raumschiff Engterprise ist Sience Fiction! Wir haben noch nicht mal den Hauch eines Schimmers, wie man dorthin gelangen könnte. Und Eliza ist definitiv der falsche Ansatz dafür. > Ich finde es eine interessante Vorstellung, daß wir gerade an dem Beginn > dieser Entwicklung stehen, man sollte diese Entwicklung nicht verpassen. Mach dir mal keine Sorgen. Du wirst es höchstwahrscheinlich nicht mehr erleben. > > ("Wir sind die Roboter" war ein schlechtes Beispiel, weil es nur eine > Verfremdung der menschlichen Stimme war; aber ich find' jetzt kein > Beispiel.) Was du meinst nennt sich Formantsynthese. In den 80-er Jahren gab es IC's dafür. Und wenn man es genau nimmt, sind wir auch beim Thema Sprachsynthese noch weit von einem selbstständig sprechenden Computer entfernt. Soudsamples aneinanderzureihen ist nun mal etwas völlig anderes, als einer Violine einen perfekten Klang zu entlocken. Oder anders gsagt: Malen nach Zahlen hat mit echter Kunst nicht viel zu tun.
Ich habe mal den "Plauderbot" ausprobiert: >Du: wie gehts >Plauderbot: Wie es mir geht Seit ich dich gesehen habe würde ich mir am >liebsten mit einem Traktor über die Eier fahren >Du: Bist du irre? >Plauderbot: Ich weiss nicht, ob ich irre bin. Ich bin ein Roboter. >Du: Das entschuldigt wohl alles >Plauderbot: Quiro ist ein guter Schütze und sein Tier macht alles nieder >Du: Du tust mir Leid >Plauderbot: Das ist schön obwohl ich dir leid tust >Du: Armer Roboter >Plauderbot: Roboter wie der Plauderbot sind dumm weil er die Uralt->Version von ICQ ist aber andere Roboter sind ganz ok Leider hat der ein paar Schimpfwörter und dummer Sprüche drauf: >Du: Gibt es etwas was ich wissen sollte >Plauderbot: jeder sollte mindestens 5 Leibeigene haben dürfen >Du: Was ist das? >Plauderbot: Betriebs Eigener Neger Ohne Rechte >Du: Kannst du auch Großschreibung? >Plauderbot: Bisher nicht. Bring es mir bei. >Du: Hallo Grillmeister >Plauderbot: Hallo! Schön dich zu treffen, Neger (Grillmeister ist der Programmierer) Ich bekomme so ein dummes Gefühl, mit dem Teil zu reden. Andererseits kann ich schlecht aufhören, mir fallen immer wieder neue Sachen ein, und möchte wissen, wie er darauf reagiert. Hier könnt ihr es selbst probieren: http://fb1.parsimony.net/cgi-bin/bot/bot.cgi?Nummer=597
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.