Profil für Dr. Bernd Vowinkel > Rezensionen

Persönliches Profil

Beiträge von Dr. Bernd Vowinkel
Top-Rezensenten Rang: 35.254
Hilfreiche Bewertungen: 409

Richtlinien: Erfahren Sie mehr über die Regeln für "Meine Seite@Amazon.de".

Rezensionen verfasst von
Dr. Bernd Vowinkel (Bonn)
(REAL NAME)   

Anzeigen:  
Seite: 1 | 2 | 3
pixel
TP-Link TD-W9980 N600 Wireless Dual Band Gigabit Vdsl2 Modem Router
TP-Link TD-W9980 N600 Wireless Dual Band Gigabit Vdsl2 Modem Router
Preis: EUR 83,24

0 von 1 Kunden fanden die folgende Rezension hilfreich
1.0 von 5 Sternen keine DSL-Verbindung, 13. Dezember 2014
Verifizierter Kauf(Was ist das?)
Leider habe ich mit den mitgelieferten Kabeln keine DSL-Verbindung zur Telekom aufbauen können. Trotz unpassenden RJ11-Steckern sollte das ja trotzdem im Prinzip möglich sein, da nur jeweils die beiden inneren Kontakte sowohl bei RJ11 als auch bei RJ45 verwendet werden. Ich habe das Gerät zurückgeschickt.
Kommentar Kommentare (2) | Kommentar als Link | Neuester Kommentar: Apr 21, 2015 4:15 PM MEST


Rohde Vaasa-H, Herren Pantoffeln, Schwarz (90 Schwarz), 42 EU (8 Herren UK)
Rohde Vaasa-H, Herren Pantoffeln, Schwarz (90 Schwarz), 42 EU (8 Herren UK)
Wird angeboten von Schuhhaus Wilhelm Vormbrock
Preis: EUR 34,90

1.0 von 5 Sternen schlechte Qualität, 2. Oktober 2014
Rezension bezieht sich auf: Rohde Vaasa-H Herren Pantoffeln (Schuhe)
Ich habe die Pantoffeln jetzt gerade mal 4 Monate und sie fangen schon an, sich zu zerlegen. Das Oberteil löst sich bei beiden Pantoffeln von der Sohle.


Menschheit 2.0: Die Singularität naht
Menschheit 2.0: Die Singularität naht
von Ray Kurzweil
  Broschiert

11 von 13 Kunden fanden die folgende Rezension hilfreich
5.0 von 5 Sternen Das Geheimnis des menschlichen Denkens ist enthüllt, 7. Dezember 2013
In seinem Buch „How to Create a Mind“ zeigt der bekannte amerikanische Futurist und Pionier der künstlichen Intelligenz Ray Kurzweil, dass mittlerweile die Art und Weise, wie menschliches Denken funktioniert, weitgehend entschlüsselt ist. Nach seiner Meinung werden wir mit dieser Erkenntnis innerhalb der nächsten zwei Jahrzehnte in der Lage sein, Computer mit allen geistigen Fähigkeiten des Menschen auszustatten.

Ray Kurzweil genießt im englischsprachigen Raum hohes Ansehen. So erhielt er 19 Ehrendoktortitel und eine ganze Reihe von Auszeichnungen, darunter die „National Medal of Technology“. Er gilt als eine der Leitfiguren des Trans- und des Posthumanismus. Er ist Pionier der optischen Texterkennung, der Sprachsynthese, der Spracherkennung, der Flachbettscannertechnologie und der elektronischen Musikinstrumente (insbesondere Keyboards) und hat in diesen Bereichen eine Reihe von Firmen gegründet. Seit 2012 arbeitet er als leitender Ingenieur bei Google. Sein 2005 veröffentlichtes Buch „The Singularity Is Near“ war ein Bestseller. Im Verlag lolabooks ist gerade eine deutsche Übersetzung unter dem Titel „Menschheit 2.0, die Singularität naht“ erschienen. Der Verlag plant, auch das hier besprochene Buch demnächst in deutscher Sprache herauszugeben.
Der Algorithmus des Denkens

In der ersten Hälfte des Buches gibt Kurzweil einen zusammenfassenden Überblick über den gegenwärtigen Stand der Hirnforschung. Die grundlegenden Funktionseinheiten des Gehirns sind die Nervenzellen (Neuronen). Sowohl ihre biochemische Funktion als auch die daraus resultierende Funktion der Informationsverarbeitung sind weitestgehend erforscht und es gibt gute Simulationsmodelle dafür. Da als Grundlage dieser Modelle die klassische Physik und die sich daraus ableitende Biochemie ausreichend ist und sich diese Teile der Naturwissenschaften vollständig algorithmisch beschreiben lassen, ist damit zwangsläufig auch die Funktion der Neuronen vollständig algorithmisch beschreibbar.

Dem häufig vorgebrachten Gegenargument, dass die Neuronen teilweise analog arbeiten und somit mit einem Digitalcomputer nicht ausreichend simuliert werden können, begegnet Kurzweil mit dem Hinweis dass z.B. die analoge Größe der Leitfähigkeit in den Synapsen der Neuronen völlig ausreichend mit 8 Bit verschlüsselt werden kann. Analoge Vorgänge können grundsätzlich mit jeder gewünschten Präzision in Digitalcomputern simuliert werden.

Der Teil des Gehirns, in dem bewusstes Denken stattfindet, ist der Neocortex. Es ist die äußere Schicht des Großhirns mit einer Stärke von 2 bis 5mm, die selbst wieder aus sechs einzelnen Schichten besteht. Durch die Faltung des Gehirns ist die Gesamtfläche vergleichsweise groß (1800 qcm). Man kann hier Einheiten, so genannte cortikale Säulen, identifizieren, die jeweils aus etwa 10 000 Neuronen bestehen. Der Teil des genetischen Codes, in dem der Bauplan des menschlichen Gehirns steckt, hat einen Umfang von ca. 25 MB. Das ist eine erstaunlich geringe Datenmenge. Der Bauplan eines heutigen Verkehrsflugzeugs benötigt eine hundert bis tausendmal größere Datenmenge. Es ist nach Kurzweil wohl so, dass im genetischen Code im Wesentlichen die Baupläne für die Grundbausteine (Neuronen und z.B. ihre Organisation zu cortikalen Säulen) des Gehirns verschlüsselt sind und die Anweisung, wie oft diese zu vervielfältigen sind. Bei einem Embryo mit voll entwickeltem Gehirn sind sozusagen nur die Hardware und ein einfaches Betriebssystem vorhanden. Alles andere muss erlernt werden. Dieser Prozess beginnt in begrenztem Umfang durchaus schon vor der Geburt.

Unser Denken besteht im Wesentlichen aus der Erkennung und der Manipulation von Mustern. Insgesamt können wir bis zu 300 Millionen verschiedene Muster unterscheiden. Zur Speicherung und Verarbeitung werden jeweils um die 100 Neuronen verwendet. Obwohl die Verarbeitungsfrequenz in unserem Gehirn nur zwischen 100 und 1000Hz liegt und damit mehr als eine Million mal kleiner als in unseren Computern ist, schafft unser Gehirn eine Mustererkennung innerhalb von Sekundenbruchteilen. Der Grund dafür ist, dass hier die Datenverarbeitung extrem parallel erfolgt. Nach Kurzweil ist der Algorithmus nach dem dies geschieht, mathematisch am bestem mit dem so genannten Hierarchical hidden Markov model (HHMM) zu beschreiben. Es handelt sich dabei um ein künstliches neuronales Netz, das mit zum Teil statistischen Methoden aus einer Datenmenge bestimmte Muster erkennen kann.

Beim Lesen von Text muss man sich das z.B. so vorstellen, dass in der untersten Hierarchieebene zunächst einfache geometrische Muster aus den vom Sehnerv kommenden Signalen erkannt werden wie z. B: Linien, Bögen und Kreise, wobei bereits in der Netzhaut des Auges eine Datenkompression erfolgt. In der nächsten höheren Ebene werden daraus Buchstaben erkannt. Danach erfolgt die Erkennung von Wörtern, dann folgen Sätze. In der höchsten Stufe werden wir uns des Inhalts eines Satzes bewusst. Alle diese Denkprozesse laufen ausschließlich algorithmisch ab und obwohl sie damit deterministisch sind, können trotzdem Zufälle im Rahmen des so genannten deterministischen Chaos eine Rolle spielen. Das Denken des menschlichen Gehirns und die Abläufe in ähnlich aufgebauten künstlichen neuronalen Netzen lassen sich daher nicht vollständig vorhersagen.

Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zelle. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist unabhängig von einer bestimmten Materie.

Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass die Abläufe innerhalb der Neuronen algorithmisch ablaufen, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein muss, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins.
Maschinen lernen denken

Im zweiten Teil des Buches zeigt der Autor, wie nun die Erkenntnisse der Hirnforschung dazu genutzt werden können, Computerprogramme zu erstellen, die wie das menschliche Denken funktionieren.

Die Hauptanwendungsgebiete liegen derzeit in der Mustererkennung. So basiert das Spracherkennungsprogramm Siri, das auf dem iPhone 4S und dem iPhone 5 installiert ist, auf einem künstlichen neuronalen Netz, das lernfähig ist und sich mit der Zeit auf seinen Nutzer einstellt. Microsoft stattet jetzt seine neuen Smartphones mit einem verbesserten Spracherkennungsprogramm aus, das doppelt so schnell arbeitet wie Siri und um 15 Prozent zuverlässiger sein soll.

Eines der derzeit am weitesten fortgeschrittenen Programme in Bezug auf die Simulation menschlichen Denkens ist „Watson“ von der Firma IBM. Es ist in der Lage, ganze Sätze zu verstehen und darauf sinnvolle Antworten zu geben. Bei dem im amerikanischen Fernsehen beliebten Spiel „Jeopardie“ hat es im Jahr 2011 besser abgeschnitten als die besten menschlichen Kandidaten. Bei diesem Spiel muss auf einen Satz, der eine Antwort darstellt, die zugehörige richtige Frage gefunden werden. Das Programm kann durch einen Lernprozess für verschiedenste Fähigkeiten optimiert werden. Eine kleine Gruppe bei IBM hat dem Programm inzwischen beigebracht, neue Kochrezepte zu erstellen. Die menschlichen Geschmackseindrücke wurden dabei vorher einprogrammiert.

Ray Kurzweil selbst hat jahrzehntelange Erfahrung im Programmieren von lernfähigen Mustererkennungsprogrammen. Nach seiner Erfahrung arbeiten diese Programme dann am besten, wenn man sie in ihrem Aufbau als neuronalem Netz dem menschlichen Gehirn nachempfindet. Für die jeweilige Aufgabe kann man gewisse Grundregeln einprogrammieren. Die Feinheiten erlernt das Programm dann selbstständig durch seinen praktischen Gebrauch. Zusätzlich kann man noch einen evolutionären Optimierungsvorgang einbauen, der die Verschaltung des Netzes für die jeweilige Aufgabe optimiert, so wie das auch im menschlichen Gehirn geschieht.

Auf die Frage, wann es gelingt, Computer mit allen menschlichen geistigen Fähigkeiten einschließlich des Ich-Bewusstseins auszustatten, gibt Kurzweil das Jahr 2029 an. Zu diesem Zeitpunkt wird nach seiner Meinung das erste Computerprogramm den so genannten Turing-Test bestehen. Was danach geschieht, hat er ausführlich in seinem Buch „The Singularity is Near“ beschrieben. Es wird nach seiner Meinung eine rasante Vervielfachung der Rechenleistung und der Fähigkeiten der künstlichen Intelligenz geben, die gewaltige Auswirkungen auf unsere Gesellschaft haben werden.
Die Kritiker

Wie nicht anders zu erwarten, gibt es auch heftige Kritik an den Positionen von Kurzweil, zumal für viele die mögliche Machbarkeit von künstlichem Bewusstsein eine Kränkung ihres Menschenbildes darstellt. Insbesondere im deutschsprachigen Raum gibt es eine tief greifende Aversion gegen die Ideen von Ray Kurzweil und generell gegen den Transhumanismus und den Posthumanismus. Wahrscheinlich ist einer der Gründe, dass die meisten immer noch einer christlichen Ethik und einem Menschenbild verbunden sind, die ihre Ursprünge in der Bronzezeit haben. Daneben gibt es ein tiefes und zum Teil irrationales Misstrauen gegenüber neuen Technologien. So glauben religiös oder metaphysisch inspirierte Intellektuelle nach wie vor an den Dualismus von Leib und Seele bzw. Geist und Körper. Sie können aber keine wirklich nachvollziehbaren rationalen Argumente für ihre Position anführen. Insofern ist das eine reine Glaubensfrage.

Den Naturwissenschaften etwas mehr zugeneigte Geisteswissenschaftler vertreten häufig die Position, dass man zwar womöglich alle geistigen Fähigkeiten des Menschen mit einem Computer simulieren kann, aber die Simulation immer noch etwas anderes ist als die Wirklichkeit, ähnlich wie die Simulation des Wetters etwas anderes ist als das Wetter selbst. Prominenter Vertreter dieser Position ist der amerikanische Philosoph John Searle. In seinem Buch „Die Wiederentdeckung des Geistes“ geht er zwar davon aus, dass das menschliche Gehirn im Rahmen des Naturalismus vollständig beschrieben werden kann als eine Art Bio-Computer, dass aber seine Fähigkeiten nicht mit der künstlichen Intelligenz gleichrangig nachvollzogen werden können.

Der Denkfehler, der dieser Position zugrunde liegt, ist die Ansicht, dass unsere geistigen Fähigkeiten an eine bestimmte Materie gebunden sind. Im Kern ist aber Denken nichts anderes als Informationsverarbeitung und dies geschieht auf der untersten Ebene als reine Symbolverarbeitung und dies ist bereits ein abstrakter Vorgang. Ray Kurzweil schreibt dazu: „Wenn das Verstehen von Sprache und anderer Phänomene über statistische Analysen (wie z.B. bei moderner Spracherkennungssoftware) nicht als wahres Verstehen zählt, dann haben Menschen auch kein wahres Verstehen.“

Fachleute der künstlichen Intelligenz an deutschen Hochschulen und Universitäten bezeichnen die Ansichten von Kurzweil häufig als überzogen optimistisch in Bezug auf die Machbarkeit der künstlichen Intelligenz und ihrer Auswirkungen auf die Menschheit. Allerdings geht Kurzweil bereits in seinem Buch „The Singularity is Near“ neben den großen Chancen auch auf die Gefahren der neuen Technologien ein. Insofern ist der Vorwurf nicht ganz zutreffend.

Für seine Kritiker hat er eine Analyse seiner eigenen Vorhersagen aus seinem Buch „The Age of Spiritual Maschines“ gemacht. Das Buch erschien 1999. Von seinen 147 einzelnen dort gemachten Vorhersagen für das Jahr 2009 waren 78 Prozent voll zutreffend. Weitere 8 Prozent waren im Prinzip richtig, traten aber bis zu 2 Jahre später ein als vorhergesagt. 12 Prozent waren nur teilweise korrekt und 2 Prozent waren falsch. Zu den falschen Vorhersagen gehört, dass es bis 2009 Autos gibt, die ohne Fahrer betrieben werden können. Aber selbst in diesem Fall muss man zugestehen, dass das Problem technisch durchaus bereits gelöst ist. So hat Google im Oktober 2010 einen elektrisch angetriebenen Lieferwagen fahrerlos über 13.000 km von Italien nach China fahren lassen. Im Moment liegt das Problem zur generellen Einführung dieser Technik eher bei den fehlenden gesetzlichen Regelungen. Man muss sich angesichts dieser Zahlen fragen, wer von den Kritikern eine bessere Statistik seiner eigenen Vorhersagen vorlegen kann. Bill Gates meint jedenfalls dazu: „Ray Kurzweil ist von denen Personen, die ich kenne, am besten geeignet, die Zukunft der künstlichen Intelligenz vorauszusagen“.
Deutsche Bedenkenträger

Während Pioniere wie Ray Kurzweil den Weg in eine Zukunft weisen mit weniger Leid und mehr Lebensqualität, sehen selbsternannte Ethikexperten in unserem Land schon bei der PID die Menschenwürde in Gefahr. Einer der prominenten deutschen Vertreter der Bedenkenträger gegenüber neuen Technologien ist der Philosoph Jürgen Habermas. In seinem Buch „Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?“ bezeichnet die Anhänger des Trans- und des Posthumanismus als „ausgeflippte Intellektuelle“. Ihm selbst muss man allerdings bescheinigen, dass er hier über Dinge schreibt, von denen er nicht die geringste Ahnung hat.

Bei der Diskussion der ethischen Grundlagen neuer Technologien und ihrer gesetzlichen Regelung hat der Deutsche Ethikrat einen großen Einfluss. Er hat sich im letzten Jahr einen Namen gemacht mit der Empfehlung an den Bundestag, einem Gesetz zur Regelung der Genitalverstümmelung von Jungen zuzustimmen. Mit solchen Leuten, bei denen nicht die Verminderung sondern die Verherrlichung des Leids im Vordergrund steht und die einen Weg zurück ins Mittelalter beschreiten, werden wir die Zukunft nicht meistern können. Dennoch werden auch sie die Entwicklung nicht wirklich aufhalten können.

Ray Kurzweil meint dazu, dass sich die neuen Technologien, wenn überhaupt, dann nur in totalitären Staaten aufhalten werden lassen. Wir werden diese zukünftigen Herausforderungen nur meistern, wenn wir ein wissenschaftsfundiertes Weltbild anerkennen und uns von einem metaphysischen bzw. religiösen Menschenbild endlich befreien.
Kommentar Kommentar (1) | Kommentar als Link | Neuester Kommentar: Apr 8, 2015 7:49 PM MEST


Gretchenfragen an den Naturalisten
Gretchenfragen an den Naturalisten
von Gerhard Vollmer
  Broschiert
Preis: EUR 5,00

14 von 17 Kunden fanden die folgende Rezension hilfreich
5.0 von 5 Sternen Sehr guter Überblick über den Naturalismus, 9. Oktober 2013
Die 90seitige Broschüre wurde im Auftrag der Giordano-Bruno-Stiftung von dem Physiker und Philosophen Prof. Dr. Gerhard Vollmer erarbeitet. Sie gibt eine ganz hervorragende, kompakte und allgemeinverständliche Übersicht der grundlegenden Positionen des Naturalismus. Alle wichtigen Kernpunkte unseres wissenschaftlich fundierten Weltbildes und die Grundlagen einer naturalistischen Ethik werden angesprochen.

Der Naturalismus geht davon aus, dass es in der Welt ausschließlich natürliche Dinge und Eigenschaften gibt. Auf eine einfache Formel gebracht, behauptet der Naturalismus, dass es in der Welt mit rechten Dingen zugeht, d.h. es läuft alles im Rahmen von Naturgesetzen ab. Er steht damit im Widerspruch zum Theismus, Spiritualismus und Okkultismus. Begründet wird der Naturalismus damit, dass die großen Erfolge der Naturwissenschaften in den letzten Jahrhunderten gezeigt haben, dass die empirische Methode der Gewinnung von Erkenntnis über die reale Welt besonders erfolgreich ist. Wunder, d.h. Verletzungen von bekannten Naturgesetzen konnten bisher nicht zweifelsfrei nachgewiesen werden. Für den Naturalismus spricht, dass alles, was existiert, aus natürlichen Bausteinen und Kräften besteht. Auf der niedrigsten Ebene sind das die Elementarteilchen, die vier Grundkräfte der Natur und das was man allgemein als Information bezeichnen könnte. Aus diesen Dingen hat sich im Laufe der Evolution das Leben bis hin zum Menschen entwickelt. Unser wissenschaftliches Weltbild hat zwar noch immer Lücken, aber sie werden immer kleiner und weniger. Ob sie jemals ganz verschwinden werden, kann man nicht sicher vorhersagen, aber das Füllen dieser Lücken mit religiösem oder esoterischem Hokuspokus wird die Menschheit sicher nicht weiter bringen.

Den in Deutschland von der Giordano-Bruno-Stiftung vertretenen evolutionären Humanismus könnte man auch als eine Variante des naturalistischen Humanismus bezeichnen. Damit ist ein wissenschaftlich fundierter Naturalismus der Grundpfeiler für die vertretene Position der Stiftung. Wegen der Objektivität der Naturwissenschaften sollte man hier eher von einem objektiven Weltbild als von einer subjektiven Weltanschauung reden. Insofern unterscheidet sich die Stiftung von anderen humanistischen Vereinigungen, die stärker geneigt sind, metaphysische Begründungen und Herleitungen für ihre Grundsätze zu akzeptieren.

Warum es etwas gibt, und wie es entstanden ist

Im ersten Teil der Schrift geht Vollmar auf die abstrakten Gegenstände wie Logik, Mathematik und Metaphysik ein, gefolgt von den Problemen des Realismus und dem Aufbau der Welt. Die von vielen als philosophisch besonders tiefsinnig gehaltene Frage, warum es überhaupt etwas gibt und nicht vielmehr nichts, ist nach Vollmer recht leicht aufzuklären. Eine Antwort auf die Frage nach der Ursache für die Existenz der Welt kann nur von außerhalb der Welt gegeben werden. Da die Welt aber definitionsgemäß alles umfasst, was es gibt, kann es nichts Außerweltliches geben. Fazit: entweder ist die Frage sinnlos oder unbeantwortbar. Fest steht damit jedenfalls, dass die Frage nicht besonders tiefsinnig ist.

Bei den kosmologischen Fragen richtet sich der Naturalist nach den Ergebnissen der naturwissenschaftlichen Kosmologie. Auf die zentrale Frage, wie das Universum entstanden ist, gibt es inzwischen zumindest gut fundierte wissenschaftliche Hypothesen, wie sie z.B. von dem amerikanischen Physiker Lawrence Krauss vertreten werden, siehe: "Ein Universum aus Nichts". Gerade im Bereich der Kosmologie und der Physik der Elementarteilchen erleben wir derzeit einen rasanten Erkenntnisgewinn, der nicht zuletzt auf die großen Fortschritte im Bereich der Instrumentierung zurückzuführen ist.

Ethische Grundsätze

Dass sich der Naturalist bei Fragen zum physischen Weltbild an den Ergebnissen der Naturwissenschaften orientiert, ist selbstverständlich, aber wie sieht es mit ethischen und moralischen Grundsätzen aus? Nach Vollmer gibt es für solche Grundsätze keine Letztbegründungen. Das gilt dann allerdings auch für göttliche Gebote und Verbote, denn es gibt keinen überzeugenden Nachweis, dass sie wirklich von einer Gottheit stammen. Eine relative Begründung für moralische Grundregeln ist jedoch möglich. Dabei geht der Naturalist neben erprobten Prinzipien, wie der Verallgemeinerbarkeit, der Goldenen Regel, Kants Kategorischem Imperativ und dem Prinzip der Fairness von einem pragmatischen Standpunkt aus. Regeln die das Zusammenleben in der Gemeinschaft und das Glück einzelner befördern, ohne dass sie auf Kosten anderer gehen, gelten als gute Regeln. Auf religiöse oder metaphysische Letztbegründungen wird dagegen verzichtet. Es gibt nicht das Gute und das Böse schlechthin, sondern es gibt Freude und Leid und daran sollte man sich bei der Suche nach Werten orientieren. Auch wenn die Wissenschaft nicht unmittelbar moralische Werte begründen kann, so kann sie doch das Verhalten von Menschen auf eine wissenschaftliche Grundlage stellen und damit zum Verständnis beitragen.

Künstliche Intelligenz und die Willensfreiheit

In humanistischen Kreisen wird die Menschenwürde überwiegend als besonders hohes Gut geachtet. Wegen der damit herausgestellten Besonderheit des menschlichen Geistes wird dann auch von vielen die Machbarkeit der künstlichen Intelligenz bis hin zu Maschinen mit Bewusstsein für völlig unmöglich gehalten. Dieser Position erteilt Vollmer eine Absage: „Da für den Naturalisten das Gehirn und seine Leistungen völlig natürlich sind, hält er auch künstliche Intelligenz für möglich, in Teilbereichen sogar schon verwirklicht. Soweit allerdings Intelligenz an Bewusstsein gebunden ist, sieht er vorerst keine Möglichkeit, künstliche Intelligenz zu schaffen. …Einen Grund, warum es auf Dauer unmöglich sein sollte, sieht der Naturalist allerdings nicht.“ Die Begründung liegt darin, dass aus Sicht des Naturalisten, im Gehirn keine Prozesse ablaufen, die über die klassische Physik und der darauf aufbauenden Biochemie hinausgehen. Diese laufen aber vollständig algorithmisch ab und damit sind die Prozesse prinzipiell mit einem Computer nachvollziehbar. Selbst wenn das Gehirn unmittelbaren Zugriff auf quantenmechanische Prozesse hätte, was im Moment eher unwahrscheinlich erscheint, wäre das kein Argument gegen die Machbarkeit der künstlichen Intelligenz, weil diese Prozesse mittlerweile ebenfalls in Maschinen (Quantencomputer) nachvollzogen werden können. Klar ist damit auch sofort, dass es die Willensfreiheit nach der strengen Definition von Immanuel Kant nicht geben kann, denn sie würde eine Physik erfordern, die nichtalgorithmisch sein müsste. Der ontologische Indeterminismus, wie er in der Quantenphysik vermutet wird, würde zur Begründung eines freien Willens auch nicht allzu viel nutzen, denn dann wären unsere „freien Entscheidungen“ rein zufällig.

Kritik am Realismus

Die Darstellung des Naturalismus ist in der Broschüre so überzeugend, dass man sich fragt, wie man überhaupt den Naturalismus in Frage stellen kann. In Diskussionen mit Verfechtern des religiösen Glaubens kommt häufig das Argument, dass der Naturalismus ja auch nicht ohne Dogmen auskäme. So seien die Prämissen des Naturalismus, nämlich der Realismus und der Rationalismus Annahmen, die man glauben müsse. Vollmer geht auf diese Problematik ein und vertritt den Standpunkt, dass man in der Tat diese beiden Prämissen nicht beweisen kann, dass es aber gute Argumente gibt, die für diese Prämissen sprechen. So sei der ontologische Realismus zwar keine empirisch prüfbare, wohl aber eine kritisierbare metaphysische Hypothese und gehöre damit zur guten Metaphysik. Es ist nämlich möglich, dass Theorien über die Wirklichkeit scheitern, weil die Welt tatsächlich anders ist als angenommen. Bei religiösen Dogmen ist das dagegen in der Regel nicht möglich, weil sie keinen konkreten Bezug zur Wirklichkeit haben. Diese Dogmen muss man dann dementsprechend als schlechte Metaphysik einstufen. Vollmer schreibt dazu: „Ist eine Theorie tatsächlich nicht prüfbar, so sollte sie wenigstens anderweitig kritisierbar sein. Diese Forderung gilt für alle wissenschaftlichen, ja sogar für alle rationalen Unternehmungen; Kritisierbarkeit ist danach das beste Kriterium für Wissenschaftlichkeit und allgemein für Rationalität. Dagegen ist Dogmatismus keine rationale Einstellung.“

Gerade in den letzten Jahren sind durch die Ergebnisse der modernen Physik Zweifel am Realismus aufgekommen. Dinge wie Materie, Zeit und Raum, die im althergebrachten Materialismus die Grundstruktur der Wirklichkeit darstellten, verlieren ihren absoluten Charakter. Einen primitiven Materialismus, bei dem es außer Materie und Energie nichts gibt, muss man daher als überholt ansehen. Vollmer argumentiert: „Sollte sich herausstellen, dass die Grundstrukturen unserer Welt nicht Raum und Zeit sind, sondern etwa die Strings der Stringtheorie oder die Schleifen der Loop-Quantengravitation, so wäre das weder für den Realisten noch für den Naturalisten bedenklich.“ Entscheidend ist hier, dass sich der Naturalismus an die neuen Erkenntnisse der Naturwissenschaften anpasst, während sich die Religionsvertreter in der Regel dagegen wehren. Eine besonders gelungene Definition der Realität hat der Science Fiction Autor Philip K. Dick geliefert: „Realität ist das, was nicht verschwindet, wenn man nicht mehr daran glaubt.“

Der Vorwurf der Wissenschaftsgläubigkeit

Ein weiteres häufig vorgebrachtes Argument gegen den Naturalismus ist das der Wissenschaftsgläubigkeit. Wissenschaft und hier insbesondere die Naturwissenschaften, so das Argument, kann nicht alles ergründen. Menschliche Dinge wie Bewusstsein, Wille und Gefühle einerseits und die Produkte des menschlichen Geistes z.B. im Bereich der Kunst und der Philosophie andererseits, entziehen sich einer wissenschaftlichen Beschreibung. Daneben brauchen wir, um Wissenschaft überhaupt betreiben zu können, weltanschauliche Rahmenbedingungen und es wird in Zweifel gezogen, dass man diese selbst wissenschaftlich erklären kann, weil hier eine gewisse Selbstbezüglichkeit ins Spiel kommt.
Das Hauptziel der Naturwissenschaften ist die Reduktion verschiedener komplexer Phänomene auf gemeinsame einfache Grundregeln. Damit gewinnt man in der Regel eine tiefere Einsicht in die Vorgänge. Die oben aufgezählten Dinge widersetzen sich aber hartnäckig einer Reduktion auf einfache Regeln. Man spricht hier von Emergenz. Das bedeutet, dass das betrachtete System neue Eigenschaften hat, die nicht unmittelbar aus den Eigenschaften seiner Bausteine abgeleitet werden können und umgekehrt auch nicht auf diese reduziert werden können. So ist z.B. die Reduktion von Bewusstsein auf die Bewegung und die Eigenschaften der beteiligten Elementarteilchen völlig undenkbar. Umgekehrt ist aber durchaus möglich, dass solche komplexen Phänomene von den Abläufen des Mikrokosmos her determiniert sind (Mikrodeterminismus). Aber auch hier können wir eine völlige Determiniertheit wohl weitgehend ausschließen, weil Phänomene auf der Ebene der Quantenmechanik zu völlig zufälligen Abläufen führen können. Nach Vollmer ist der Naturalist keineswegs auf den Reduktionismus angewiesen.
Es kann also durchaus sein, dass wir bei der Erklärung hochkomplexer Systeme auf die Grenzen einer wissenschaftlichen Erklärung stoßen. Die Frage an die Kritiker des Naturalismus ist aber, welche Erkenntnismethoden und Möglichkeiten sie der Wissenschaft entgegenzusetzen haben. Teile der Wirklichkeit, die den Naturwissenschaften womöglich für immer verborgen bleiben, können auch Theologie und Metaphysik nicht ergründen, denn sie verfügen nicht über bessere Erkenntnismethoden. Im Gegenteil, viele ihrer Glaubensgrundsätze und vermeintlichen Erkenntnisse haben sich mittlerweile als Irrweg herausgestellt. Dazu kommt, dass sie über Jahrhunderte hinweg unser Bild der Wirklichkeit vernebelt haben und teilweise sogar die naturwissenschaftliche Forschung behindert haben. Nach Vollmer gilt bei der Erkenntnis grundsätzlich „so wenig Metaphysik wie möglich“.
Naturwissenschaftlich Ungebildete bringen zuweilen das Argument, dass die physikalischen Theorien ja eben auch nur Theorien seien, deren Wahrheitsgehalt durchaus zweifelhaft sei. Daneben werde man in seiner Alltagserfahrung wohl kaum mit der Quantenphysik oder der Relativitätstheorie in Berührung kommen. Dabei übersehen sie, dass die inzwischen weit verbreiteten Navigationsgeräte Bauteile beinhalten, zu deren Entwicklung eine tiefe Kenntnis der Quantenphysik notwendig ist und dass in die Positionsberechnung, die in den Geräten durchgeführt wird, sowohl die Effekte der speziellen als auch der allgemeinen Relativitätstheorie eingehen, da ansonsten die Ergebnisse viel zu ungenau wären. Wenn es ein besonders überzeugendes Argument für den Naturalismus gibt, dann ist es genau dieses: Mit der Kenntnis der Naturgesetze können wir Apparate bauen, die tatsächlich in der Realität funktionieren. Im Gegensatz dazu hat z.B. nach wissenschaftlichen Studien das Beten keinerlei Wirkung.

Eine Liste geistiger Fehlschlüsse und Verirrungen

Am Ende der Schrift listet Vollmer zur besseren Übersichtlichkeit noch einmal alle die Dinge auf, die es für den Naturalisten nicht gibt und solche, die er als Pseudowissenschaften einstuft. Die erschreckend lange Liste ist ein Zeugnis der Vielfalt geistiger Verirrungen der Menschheit. Dazu gehören auch Dinge wie Seele, Willensfreiheit und ein objektiver Sinn des Lebens.
Kommentar Kommentar (1) | Kommentar als Link | Neuester Kommentar: Apr 8, 2015 7:47 PM MEST


Ein Universum aus Nichts: ... und warum da trotzdem etwas ist
Ein Universum aus Nichts: ... und warum da trotzdem etwas ist
von Lawrence M. Krauss
  Gebundene Ausgabe
Preis: EUR 19,99

25 von 33 Kunden fanden die folgende Rezension hilfreich
5.0 von 5 Sternen Gott ist arbeitslos!, 9. Juli 2013
Verifizierter Kauf(Was ist das?)
Krauss fasst in seinem Buch den derzeitigen Stand der naturwissenschaftlichen Forschung im Bereich der Kosmologie in leicht verständlicher Form zusammen. Seine Antwort auf die häufig gestellte Frage in der Form wie sie zuerst der Philosoph Gottfried Wilhelm Leibniz gestellt hat „Warum ist überhaupt etwas und nicht vielmehr nichts?" ist fundiert und klar: „das Nichts ist nicht stabil“. Dabei geht er ausführlich auf die Problematik der Definition des Nichts ein und erläutert die wissenschaftliche Theorie zur Entstehung unserer Welt aus dem Nichts. Zum Schluss gibt er einen Ausblick auf das mögliche langfristige Schicksal unserer Welt und den damit verbundenen Schlussfolgerungen für den Sinn unseres Daseins.

Wissenschaft statt Philosophie und Theologie

Von dem amerikanischen Philosoph Jerry A. Fodor stammt der Satz: „Manche Philosophen sehen Philosophie als das an, was man mit einem Problem macht bevor es klar genug ist, um es mit Wissenschaft lösen zu können“. Bei der Frage nach der Entstehung unserer Welt ist in den letzten Jahrzehnten genau dieses eingetreten. Die Naturwissenschaft ist jetzt so weit fortgeschritten, dass sie eine Antwort auf diese Frage liefern kann. Krauss schreibt dazu: „Die moderne Kosmologie hat uns dazu gebracht, Vorstellungen in Betracht zu ziehen, die ein Jahrhundert zuvor noch nicht einmal hätten formuliert werden können. Die großen Entdeckungen des 20. und 21. Jahrhunderts haben nicht nur die Welt verändert, in der wir tätig sind. Sie haben auch unser Verständnis der Welt (oder der Welten) revolutioniert, die direkt vor unseren Augen existieren oder existieren könnten – einer Wirklichkeit, die verborgen bleibt, bis wir kühn genug sind, nach ihr zu suchen. Aus diesem Grund sind Philosophie und Theologie letztlich nicht fähig, aus sich heraus die wahrhaft grundlegenden Fragen anzugehen, die uns im Hinblick auf unsere Existenz verwirren“. Die Philosophie kann in der Tat bestenfalls Hypothesen über die Wirklichkeit aufstellen. Ob diese die Wirklichkeit zutreffend beschreiben, kann aber nur die Naturwissenschaft entscheiden. Metaphysik, Transzendenz und Theologie haben sich zur Aufklärung der Wirklichkeit nicht nur als restlos unbrauchbar erwiesen, sondern sie haben sie teilweise sogar vernebelt. Wissenschaft entzaubert die Natur, aber sie macht sie dadurch nicht weniger schön oder eindrucksvoll.

An anderer Stelle zitiert Krauss den berühmten Physiker Steven Weinberg mit den Worten: „Die Physik macht es nicht unmöglich an Gott zu glauben, sondern ermöglicht vielmehr, nicht an Gott zu glauben. Ohne Wissenschaft ist alles ein Wunder. Mit der Wissenschaft bleibt die Möglichkeit, dass gar nichts ist. In diesem Fall wird religiöser Glaube immer weniger notwendig und auch immer weniger relevant“. Im Nachwort schreibt Richard Dawkins: Mag sein, dass wir die Quantentheorie nicht verstehen, doch eine Theorie, welche die reale Welt auf zehn Dezimalstellen genau vorhersagt, kann in keinem direkt nachvollziehbaren Sinn falsch sein. Der Theologie mangelt es nicht nur an Dezimalstellen – ihr fehlt selbst der kleinste Hinweis auf eine Verbindung mit der Welt der Wirklichkeit. Wie sagte doch Thomas Jefferson bei der Gründung seiner University of Virginia: „In unserer Einrichtung sollte ein Lehrstuhl für Theologie keinen Platz haben“.

Das Nichts

Die Definition des Nichts ist innerhalb der Physik nicht ganz so einfach, wie sich das die meisten vorstellen. In der Regel stellt man sich unter dem physischen Nichts einen leeren Raum vor, d.h. einen Raum aus dem sämtliche Materie entfernt wurde. In der Physik bezeichnet man das als Vakuum. Krauss legt dar, dass es in einem solchen Raum vor virtuellen Teilchen nur so wimmelt. Die Heisenbergsche Unschärferelation erlaubt, dass diese Teilchen für eine extrem kurze Zeit in die Wirklichkeit eintreten und sofort wieder verschwinden. Das diese Vorstellung keine reine Hypothese ist, lässt sich experimentell über den so genannten Casimir-Effekt nachweisen. Zeit und Raum sind mehr als nichts und daher ist das Nichts im physikalischen Sinn nicht nur die Abwesenheit von Materie und Energie, sondern auch die Abwesenheit von Zeit und Raum. Eine solche Definition übersteigt zwar unser Vorstellungsvermögen, aber das trifft ohnehin auf große Bereiche der modernen Physik zu. Die Quantenmechanik hat ihre eigene Logik und diese unterscheidet sich erheblich von unserer Alltagslogik. Unser Vorstellungsvermögen wurde über die Evolution für unsere alltäglichen Herausforderungen optimiert aber keineswegs für alle Bereiche der Wirklichkeit. Die Volksweisheit „Von nichts kommt nichts“ kann daher nicht als Argument für die Begründung eines göttlichen Schöpfungsaktes gelten, zumal eine solche Annahme keine wirklich Erklärung der Entstehung unserer Welt wäre, sondern eine Verklärung.

Dunkle Materie und Dunkle Energie

Krauss zeigt in den ersten Kapiteln, wie die Wissenschaftler aufgrund der astronomischen Beobachtungsergebnisse der letzten Jahrzehnte zwangsläufig auf die Hypothese der Existenz einer Dunklen Materie und einer Dunklen Energie kamen. Bezüglich der Dunklen Materie kam der entscheidende Hinweis von der Messung der Dynamik von Galaxien. Die Sterne bewegen sich näherungsweise in Kreisbahnen um das Massezentrum der jeweiligen Galaxie. Insbesondere ihre äußeren Bereiche drehen sich allerdings schneller um das Zentrum als dies nach Abschätzung der bekannten Massen, d.h. Sterne, Schwarze Löcher und interstellaren Gas- und Staubwolken möglich wäre. Ein weiterer empirischer Beweis kam von dem beobachteten so genannten Gravitationslinseneffekt. Galaxienhaufen lenken nach der allgemeinen Relativitätstheorie Lichtstrahlen derart von ihrer ursprünglichen Richtung ab, das sie zuweilen wie eine Linse wirken und dahinter liegende Objekte sozusagen vergrößert erscheinen lassen. Auch hier war der Effekt wesentlich größer als es von der normalen Masse her zu erwarten gewesen wäre. Aus der Vielzahl einzelner Messungen konnte mittlerweile bestimmt werden, dass die bisher bekannten materiellen Komponenten des Universums insgesamt nur einen kleinen Teil der für die Gravitationseffekte wirksamen Gesamtmasse ausmachen. Der Rest ist der Dunklen Materie zuzurechnen. Aus welchen Elementarteilchen dieser Anteil der Materie besteht, ist Gegenstand intensiver Forschung.

Seit einer Veröffentlichung von Edwin Hubble im Jahr1929 wissen wir, dass sich die Galaxien von unserer eigenen Milchstraße entfernen und zwar mit einer Fluchtgeschwindigkeit, die proportional mit dem Abstand zunimmt. Extrapoliert man die Fluchtbewegung zurück in die Vergangenheit, so scheint alle Materie am Anfang des Universums in einem Punkt konzentriert gewesen zu sein. Dieser Befund führte zur Formulierung der Urknalltheorie. In den letzten Jahrzehnten konnten diese Messungen erheblich verfeinert werden. Zur Abstandsmessung wird die scheinbare Helligkeit von Sternexplosionen (Supernovae) herangezogen. Am Ende des Lebens von Sternen oberhalb einer bestimmten Masse explodieren diese. Dauer und Helligkeit dieser Explosionen folgen einem festen Muster, sodass aus dem Verlauf der Explosion die absolute Helligkeit berechnet werden kann. Aus Vergleich der absoluten mit der scheinbaren Helligkeit kann dann die Entfernung bestimmt werden. Ein großer Vorteil dieser Methode ist auch, dass die Helligkeiten der Explosionen so stark sind, dass sie in der Größenordnung der Gesamthelligkeiten von Galaxien liegen und damit über riesige Entfernungen hinweg detektiert werden können. Die Fluchtgeschwindigkeit der Galaxien kann über deren durch den Dopplereffekt zu größeren Wellenlängen hin verschobenes Lichtspektrum (Rotverschiebung) bestimmt werden. Nun sollte man eigentlich erwarten, dass sich die Fluchtgeschwindigkeit mit der Zeit etwas verringert, da die Gravitation zwischen den Galaxien bremsend wirkt. Genauere Messungen an besonders weit entfernten Galaxien zeigten aber genau das Gegenteil. Es tritt eine Beschleunigung ein. Physikalisch erklärt werden kann dies nur über ein bisher unbekanntes Kraftfeld das mit Dunkler Energie bezeichnet wurde. Da man nach Einstein Masse in Energie umrechnen kann, stellt sich die Frage wie groß die gesamte Dunkle Energie im Vergleich zur gesamten Masse ist. Das aktuelle Ergebnis ist, dass die Dunkle Energie 68,3% ausmacht und der Rest aus 4,9% Materie (Atome) und 26,8% Dunkler Materie besteht. Der sichtbare Teil des Universums, d.h. die leuchtenden Sterne, macht dabei insgesamt nur etwa 1% aus. Sowohl die gesamte Masse als auch die Gesamtmenge der Dunklen Energie lassen sich zusammenfassen als positive Gesamtenergie des Universums. Ihr gegenüber steht die gesamte Gravitationsenergie, die ein negatives Vorzeichen hat. Zählt man diese beiden Beiträge zusammen, so ergibt sich innerhalb einer Fehlergrenze von wenigen Prozent eine Gesamtenergie von Null.

Die Vermessung des Universums

Eine der zentralen Fragen der Kosmologie ist die nach der Geometrie des Raumes. Leben wir in einem positiv gekrümmten Universum, das geschlossen ist oder einem negativ gekrümmten, offenen Universum oder genau an der Grenze zwischen diesen beiden Möglichkeiten, nämlich in einem flachen Universum? In einem flachen Universum ist die Winkelsumme eines Dreiecks genau 180°, während sie in einem positiv gekrümmten größer ist und in einem negativ gekrümmten kleiner. Krauss legt dar, wie durch Messung der räumlichen Verteilung der Fluktuation der kosmischen Hintergrundstrahlung eine Bestimmung der Geometrie möglich wurde. Die bisher präzisesten Kartierungen dieser Strahlung stammen von den Forschungssatelliten WMAP (Wilkinson Microwave Anisotropy Probe) und Planck. Die Ergebnisse deuten mit einer Genauigkeit von einem Prozent auf ein flaches Universum hin. Dies deckt sich genau mit der oben erwähnten Bestimmung der Gesamtenergie des Universums, denn die Theorie fordert für ein flaches Universum eine Gesamtenergie von Null. Mit anderen Worten, für die Entstehung des Universums ist überhaupt keine Energie erforderlich und deshalb kann es durch Quantenfluktuationen aus dem Nichts entstanden sein. Krauss zieht den Schluss: „Die Quantengravitation scheint nicht nur zuzulassen, dass Universen aus dem Nichts hervorgehen, sie könnte sie sogar erfordern. Das „Nichts“ – in diesem Fall kein Raum, keine Zeit, kein gar nichts! – ist tatsächlich instabil“. Das was diese Theorie so überzeugend macht, sind die voneinander unabhängigen Beobachtungsergebnisse, die alle in die gleiche Richtung zeigen, nämlich einem flachen Universum mit der Gesamtenergie Null. Selbst die Häufigkeitsverteilung der Elemente passt genau in dieses Bild.

Die letzte Lücke für einen Schöpfergott: Schaffung der Naturgesetze.

In die Enge getriebene Theologen sehen zuweilen die letzte Chance für die Argumentation der notwendigen Existenz eines Schöpfergottes darin, dass er die Naturgesetze geschaffen hat, nach denen der Urknall abgelaufen ist. Aber auch dieses Argument lässt sich entkräften. Die modernen Theorien der Quantengravitation und der Superstringtheorie deuten darauf hin, dass unser Universum nicht das einzige ist, sondern dass es Teil eines Multiversums ist, das aus einer riesigen Zahl einzelner Universen besteht. In den einzelnen Universen gelten dann zufällige Naturgesetze mit zufälligen Naturkonstanten. Nach dem anthropischen Prinzip leben wir zwangsläufig in einem Universum mit Naturgesetzen, die biologisches Leben ermöglichen. Von diesen Argumenten ganz abgesehen ist ein Gott, der die letzten verbliebenen Lücken naturwissenschaftlicher Erkenntnis füllt, ein recht armseliger Gott. Krauss fragt in einem Interview: Wohin geht Gott, wenn die letzten Lücken gefüllt sind?

Das düstere Ende der Welt

Man kann zwar im Rahmen der Kosmologie die Zukunft der Welt nicht mit absoluter Sicherheit vorhersagen. Aber nach unserer derzeitigen Kenntnis wird sich unser Universum immer weiter ausdehnen, die Sterne werden verglühen und die Materie wird restlos zerfallen. Irgendwann wird es aufgrund der physikalischen Bedingungen weder biologisches Leben noch künstliches Leben bzw. Intelligenz geben können. Sogar jedwede Information über irgendwelche Zivilisationen wird verschwinden. Insofern müssen wir feststellen, dass es einen höheren letzten Sinn unserer Existenz grundsätzlich nicht geben kann. Das ändert allerdings nichts daran, dass wir unserem Leben einen auf die Dauer unserer Zivilisation begrenzten Sinn geben können. Krauss schreibt dazu: „Ein Universum ohne Zweck oder Lenkung mag manchem so erscheinen, als werde das Leben dadurch bedeutungslos. Für andere, zu denen auch ich mich zähle, wirkt ein solches Universum belebend. Es macht die Tatsache unserer Existenz noch erstaunlicher und motiviert uns, aus unserem eigenen Handeln Bedeutung abzuleiten und aus unserer kurzen Existenz unter der Sonne das Beste zu machen“.

Widerspruch

In Kreisen konservativer Philosophen und Theologen hat das Buch erheblichen Unmut und Widerspruch erzeugt. So bemängelt der New Yorker Philosoph David Albert, dass das von Krauss beschriebene Nichts ein Quantenvakuum sei, das in der Lage ist, Partikel in die Wirklichkeit zu bringen und es wäre somit etwas anderes als das von Philosophen und Theologen idealisierte Nichts. Der Berliner Philosoph Claus-Peter Eichhorst schreibt in seinem Buch „Das falsche Nichts“ Aber ihr (Anm.: Physiker wie z.B. Lawrence Krauss und Stephen Hawking) Irrtum steht fest, ein Mahnmal pseudo-naturalistischer Hybris. Denn ein Nichts, aus dem ein Universum wird, ist — wie das Nichts der Schöpfungstheologen — kein Nichts: ein falsches Nichts. Der Münchner Philosoph und Jesuit Godehard Brüntrup meint, etwas was nicht existiert, kann auch nichts bewirken. Krauss bezeichnet solche Kritiker als „idiotische Philosophen“, denn ein anderes Nichts, als das der physikalischen Definition, könne es in der Wirklichkeit nicht geben. Der Streit wird weiter gehen. Noch sind nicht wirklich alle Fragen der Kosmologie geklärt, aber der Nebel lichtet sich. Wissenschaft weiß noch nicht alles, Religion weiß nichts.
Kommentar Kommentare (5) | Kommentar als Link | Neuester Kommentar: Apr 8, 2015 7:54 PM MEST


How to Create a Mind: The Secret of Human Thought Revealed
How to Create a Mind: The Secret of Human Thought Revealed
von Ray Kurzweil
  Gebundene Ausgabe

11 von 14 Kunden fanden die folgende Rezension hilfreich
5.0 von 5 Sternen Das Geheimnis menschlichen Denkens ist enthüllt, 27. Juni 2013
Verifizierter Kauf(Was ist das?)
Ray Kurzweil genießt im englischsprachigen Raum hohes Ansehen. So erhielt er 19 Ehrendoktortitel und eine ganze Reihe von Auszeichnungen, darunter die „National Medal of Technology“. Er gilt als eine der Leitfiguren des Trans- und des Posthumanismus. Er ist Pionier der optischen Texterkennung, der Sprachsynthese, der Spracherkennung, der Flachbettscannertechnologie und der elektronischen Musikinstrumente (insbesondere Keyboards) und hat in diesen Bereichen eine Reihe von Firmen gegründet. Seit 2012 arbeitet er als leitender Ingenieur bei Google. Sein 2005 veröffentlichtes Buch „The Singularity Is Near“ war ein Bestseller. Im Verlag lolabooks ist gerade eine deutsche Übersetzung unter dem Titel „Menschheit 2.0: Die Singularität naht“ erschienen. Der Verlag plant, auch das hier besprochene Buch demnächst in deutscher Sprache herauszugeben.

Der Algorithmus des Denkens

In der ersten Hälfte des Buches gibt Kurzweil einen zusammenfassenden Überblick über den gegenwärtigen Stand der Hirnforschung. Die grundlegenden Funktionseinheiten des Gehirns sind die Nervenzellen (Neuronen). Sowohl ihre biochemische Funktion als auch die daraus resultierende Funktion der Informationsverarbeitung sind weitestgehend erforscht und es gibt gute Simulationsmodelle dafür. Da als Grundlage dieser Modelle die klassische Physik und die sich daraus ableitende Biochemie ausreichend ist und sich diese Teile der Naturwissenschaften vollständig algorithmisch beschreiben lassen, ist damit zwangsläufig auch die Funktion der Neuronen vollständig algorithmisch beschreibbar. Das häufig vorgebrachte Gegenargument, dass die Neuronen teilweise analog arbeiten und somit mit einem Digitalcomputer nicht ausreichend simuliert werden können, begegnet Kurzweil mit dem Hinweis dass z.B. die analoge Größe der Leitfähigkeit in den Synapsen der Neuronen völlig ausreichend mit 8 Bit verschlüsselt werden kann. Analoge Vorgänge können grundsätzlich mit jeder gewünschten Präzision in Digitalcomputern simuliert werden.

Der Teil des Gehirns, in dem bewusstes Denken stattfindet, ist der Neocortex. Es ist die äußere Schicht des Großhirns mit einer Stärke von 2 bis 5mm, die selbst wieder aus sechs einzelnen Schichten besteht. Durch die Faltung des Gehirns ist die Gesamtfläche vergleichsweise groß (1800 qcm). Man kann hier Einheiten, so genannte cortikale Säulen, identifizieren, die jeweils aus etwa 10 000 Neuronen bestehen. Der Teil des genetischen Codes, in dem der Bauplan des menschlichen Gehirns steckt, hat einen Umfang von ca. 25MB. Das ist eine erstaunlich geringe Datenmenge. Der Bauplan eines heutigen Verkehrsflugzeugs benötigt eine hundert bis tausendmal größere Datenmenge. Es ist nach Kurzweil wohl so, dass im genetischen Code im Wesentlichen die Baupläne für die Grundbausteine (Neuronen und z.B. ihre Organisation zu cortikalen Säulen) des Gehirns verschlüsselt sind und die Anweisung, wie oft diese zu vervielfältigen sind. Bei einem Embryo mit voll entwickeltem Gehirn sind sozusagen nur die Hardware und ein einfaches Betriebssystem vorhanden. Alles andere muss erlernt werden. Dieser Prozess beginnt in begrenztem Umfang durchaus schon vor der Geburt.

Unser Denken besteht im Wesentlichen aus der Erkennung und der Manipulation von Mustern. Insgesamt können wir bis zu 300 Millionen verschiedene Muster unterscheiden. Zur Speicherung und Verarbeitung werden jeweils um die 100 Neuronen verwendet. Obwohl die Verarbeitungsfrequenz in unserem Gehirn nur zwischen 100 und 1000Hz liegt und damit mehr als eine Million mal kleiner als in unseren Computern ist, schafft unser Gehirn eine Mustererkennung innerhalb von Sekundenbruchteilen. Der Grund dafür ist, dass hier die Datenverarbeitung extrem parallel erfolgt. Nach Kurzweil ist der Algorithmus nach dem dies geschieht, mathematisch am bestem mit dem so genannten Hierarchical hidden Markov model (HHMM) zu beschreiben. Es handelt sich dabei um ein künstliches neuronales Netz, das mit zum Teil statistischen Methoden aus einer Datenmenge bestimmte Muster erkennen kann.

Beim Lesen von Text muss man sich das z.B. so vorstellen, dass in der untersten Hierarchieebene zunächst einfache geometrische Muster aus den vom Sehnerv kommenden Signalen erkannt werden wie z.B: Linien, Bögen und Kreise, wobei bereits in der Netzhaut des Auges eine Datenkompression erfolgt. In der nächsten höheren Ebene werden daraus Buchstaben erkannt. Danach erfolgt die Erkennung von Wörtern, dann folgen Sätze. In der höchsten Stufe werden wir uns des Inhalts eines Satzes bewusst. Alle diese Denkprozesse laufen ausschließlich algorithmisch ab und obwohl sie damit deterministisch sind, können trotzdem Zufälle im Rahmen des so genannten deterministischen Chaos eine Rolle spielen. Das Denken des menschlichen Gehirns und die Abläufe in ähnlich aufgebauten künstlichen neuronalen Netzen lassen sich daher nicht vollständig vorhersagen.

Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zelle. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist unabhängig von einer bestimmten Materie. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass die Abläufe innerhalb der Neuronen algorithmisch ablaufen, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein muss, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins.

Maschinen lernen denken

Im zweiten Teil des Buches zeigt der Autor, wie nun die Erkenntnisse der Hirnforschung dazu genutzt werden können, Computerprogramme zu erstellen, die wie das menschliche Denken funktionieren. Die Hauptanwendungsgebiete liegen derzeit in der Mustererkennung. So basiert das Spracherkennungsprogramm Siri, das auf dem iPhone 4S und dem iPhone 5 installiert ist, auf einem künstlichen neuronalen Netz, das lernfähig ist und sich mit der Zeit auf seinen Nutzer einstellt. Microsoft stattet jetzt seine neuen Smartphones mit einem verbesserten Spracherkennungsprogramm aus, das doppelt so schnell arbeitet wie Siri und um 15% zuverlässiger sein soll. Eines der derzeit am weitesten fortgeschrittenen Programme in Bezug auf die Simulation menschlichen Denkens ist „Watson“ von der Firma IBM. Es ist in der Lage, ganze Sätze zu verstehen und darauf sinnvolle Antworten zu geben. Bei dem im amerikanischen Fernsehen beliebten Spiel „Jeopardie“ hat es im Jahr 2011 besser abgeschnitten als die besten menschlichen Kandidaten. Bei diesem Spiel muss auf einen Satz, der eine Antwort darstellt, die zugehörige richtige Frage gefunden werden. Das Programm kann durch einen Lernprozess für verschiedenste Fähigkeiten optimiert werden. Eine kleine Gruppe bei IBM hat dem Programm inzwischen beigebracht, neue Kochrezepte zu erstellen. Die menschlichen Geschmackseindrücke wurden dabei vorher einprogrammiert.

Ray Kurzweil selbst hat jahrzehntelange Erfahrung im Programmieren von lernfähigen Mustererkennungsprogrammen. Nach seiner Erfahrung arbeiten diese Programme dann am besten, wenn man sie in ihrem Aufbau als neuronalem Netz dem menschlichen Gehirn nachempfindet. Für die jeweilige Aufgabe kann man gewisse Grundregeln einprogrammieren. Die Feinheiten erlernt das Programm dann selbstständig durch seinen praktischen Gebrauch. Zusätzlich kann man noch einen evolutionären Optimierungsvorgang einbauen, der die Verschaltung des Netzes für die jeweilige Aufgabe optimiert, so wie das auch im menschlichen Gehirn geschieht. Auf die Frage, wann es gelingt, Computer mit allen menschlichen geistigen Fähigkeiten einschließlich des Ich-Bewusstseins auszustatten, gibt Kurzweil das Jahr 2029 an. Zu diesem Zeitpunkt wird nach seiner Meinung das erste Computerprogramm den so genannten Turing-Test bestehen. Was danach geschieht, hat er ausführlich in seinem Buch „The Singularity is Near“ beschrieben. Es wird nach seiner Meinung eine rasante Vervielfachung der Rechenleistung und der Fähigkeiten der künstlichen Intelligenz geben, die gewaltige Auswirkungen auf unsere Gesellschaft haben werden.

Die Kritiker

Wie nicht anders zu erwarten, gibt es auch heftige Kritik an den Positionen von Kurzweil, zumal für viele die mögliche Machbarkeit von künstlichem Bewusstsein eine Kränkung ihres Menschenbildes darstellt. Insbesondere im deutschsprachigen Raum gibt es eine tief greifende Aversion gegen die Ideen von Ray Kurzweil und generell gegen den Transhumanismus und den Posthumanismus. Wahrscheinlich ist einer der Gründe, dass die meisten immer noch einer christlichen Ethik und einem Menschenbild verbunden sind, die ihre Ursprünge in der Bronzezeit haben. Daneben gibt es ein tiefes und zum Teil irrationales Misstrauen gegenüber neuen Technologien. So glauben religiös oder metaphysisch inspirierte Intellektuelle nach wie vor an den Dualismus von Leib und Seele bzw. Geist und Körper. Sie können aber keine wirklich nachvollziehbaren rationalen Argumente für ihre Position anführen. Insofern ist das eine reine Glaubensfrage. Den Naturwissenschaften etwas mehr zugeneigte Geisteswissenschaftler vertreten häufig die Position, dass man zwar womöglich alle geistigen Fähigkeiten des Menschen mit einem Computer simulieren kann, aber die Simulation immer noch etwas anderes ist als die Wirklichkeit, ähnlich wie die Simulation des Wetters etwas anderes ist als das Wetter selbst. Prominenter Vertreter dieser Position ist der amerikanische Philosoph John Searle. In seinem Buch „Die Wiederentdeckung des Geistes“ geht er zwar davon aus, dass das menschliche Gehirn im Rahmen des Naturalismus vollständig beschrieben werden kann als eine Art Bio-Computer, dass aber seine Fähigkeiten nicht mit der künstlichen Intelligenz gleichrangig nachvollzogen werden können. Der Denkfehler der dieser Position zugrunde liegt, ist die Ansicht, dass unsere geistigen Fähigkeiten an eine bestimmte Materie gebunden sind. Im Kern ist aber Denken nichts anderes als Informationsverarbeitung und dies geschieht auf der untersten Ebene als reine Symbolverarbeitung und dies ist bereits ein abstrakter Vorgang. Ray Kurzweil schreibt dazu: „Wenn das Verstehen von Sprache und anderer Phänomene über statistische Analysen (wie z.B. bei moderner Spracherkennungssoftware) nicht als wahres Verstehen zählt, dann haben Menschen auch kein wahres Verstehen.“

Fachleute der künstlichen Intelligenz an deutschen Hochschulen und Universitäten bezeichnen die Ansichten von Kurzweil häufig als überzogen optimistisch in Bezug auf die Machbarkeit der künstlichen Intelligenz und ihrer Auswirkungen auf die Menschheit. Allerdings geht Kurzweil bereits in seinem Buch „The Singularity is Near“ neben den großen Chancen auch auf die Gefahren der neuen Technologien ein. Insofern ist der Vorwurf nicht ganz zutreffend. Für seine Kritiker hat er eine Analyse seiner eigenen Vorhersagen aus seinem Buch „The Age of Spiritual Maschines“ gemacht. Das Buch erschien 1999. Von seinen 147 einzelnen dort gemachten Vorhersagen für das Jahr 2009 waren 78% voll zutreffend. Weitere 8% waren im Prinzip richtig, traten aber bis zu 2 Jahre später ein als vorhergesagt. 12% waren nur teilweise korrekt und 2% waren falsch. Zu den falschen Vorhersagen gehört, dass es bis 2009 Autos gibt, die ohne Fahrer betrieben werden können. Aber selbst in diesem Fall muss man zugestehen, dass das Problem technisch durchaus bereits gelöst ist. So hat Google im Oktober 2010 einen elektrisch angetriebenen Lieferwagen fahrerlos über 13000 km von Italien nach China fahren lassen. Im Moment liegt das Problem zur generellen Einführung dieser Technik eher bei den fehlenden gesetzlichen Regelungen. Man muss sich angesichts dieser Zahlen fragen, wer von den Kritikern eine bessere Statistik seiner eigenen Vorhersagen vorlegen kann. Bill Gates meint jedenfalls dazu: „Ray Kurzweil ist von denen Personen, die ich kenne, am besten geeignet die Zukunft der künstlichen Intelligenz vorauszusagen“.

Deutsche Bedenkenträger

Während Pioniere wie Ray Kurzweil den Weg in eine Zukunft weisen mit weniger Leid und mehr Lebensqualität, sehen selbsternannte Ethikexperten in unserem Land schon bei der PID die Menschenwürde in Gefahr. Einer der prominenten deutschen Vertreter der Bedenkenträger gegenüber neuen Technologien ist der Philosoph Jürgen Habermas. In seinem Buch „Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?“ bezeichnet die Anhänger des Trans- und des Posthumanismus als „ausgeflippte Intellektuelle“. Ihm selbst muss man allerdings bescheinigen, dass er hier über Dinge schreibt, von denen er nicht die geringste Ahnung hat.

Bei der Diskussion der ethischen Grundlagen neuer Technologien und ihrer gesetzlichen Regelung hat der Deutsche Ethikrat einen großen Einfluss. Er hat sich im letzten Jahr einen Namen gemacht mit der Empfehlung an den Bundestag, einem Gesetz zur Regelung der Genitalverstümmelung von Jungen zuzustimmen. Mit solchen Leuten, bei denen nicht die Verminderung sondern die Verherrlichung des Leids im Vordergrund steht und die einen Weg zurück ins Mittelalter beschreiten, werden wir die Zukunft nicht meistern können. Dennoch werden auch sie die Entwicklung nicht wirklich aufhalten können. Ray Kurzweil meint dazu, dass sich die neuen Technologien, wenn überhaupt, dann nur in totalitären Staaten aufhalten werden lassen. Wir werden diese zukünftigen Herausforderungen nur meistern, wenn wir ein wissenschaftsfundiertes Weltbild anerkennen und uns von einem metaphysischen bzw. religiösen Menschenbild endlich befreien.
Kommentar Kommentare (2) | Kommentar als Link | Neuester Kommentar: Aug 19, 2014 10:04 AM MEST


Antwort auf den neuen Atheismus: Gegen Richard Dawkins’ Gottesleugnung
Antwort auf den neuen Atheismus: Gegen Richard Dawkins’ Gottesleugnung
von Scott Hahn
  Broschiert
Preis: EUR 15,95

35 von 51 Kunden fanden die folgende Rezension hilfreich
1.0 von 5 Sternen Nichts Neues gegen den Neuen Atheismus, 9. Januar 2013
Verifizierter Kauf(Was ist das?)
Die weltweiten Bestseller der Neuen Atheisten wie z.B. Richard Dawkins' „Gotteswahn“ lässt die Vertreter des irrationalen Glaubens nicht ruhen und so versuchen sie immer wieder aufs Neue, die naturwissenschaftlich fundierten Thesen der Neuen Atheisten zu widerlegen. Auch das Buch „Antwort auf den Neuen Atheismus“ ist Ausdruck völliger Ignoranz von Fakten und logischen Schlussfolgerungen.

Bei den Autoren des Buches handelt es sich um fundamentalistische Kreationisten. Wiker ist Mitglied des Discovery Institutes. Dieses Institut ist ein erzkonservativer Verein, der Arbeiten zur Stützung des Intelligent Design finanziell unterstützt. In Wikipedia steht dazu: „Die Wissenschaftlichkeit von Intelligent Design wird von der überwältigenden Mehrzahl der amerikanischen Wissenschaftsverbände verneint“.

In den ersten Kapiteln versuchen die Autoren, wie nicht anders zu erwarten, die Evolutionstheorie zu widerlegen. Sie weisen insbesondere daraufhin, dass die Entstehung der ersten vermehrungsfähigen Zelle noch weitgehend ungeklärt ist und dass eine rein zufällige Entstehung beliebig unwahrscheinlich sei. In diesem Zusammenhang werfen sie Dawkins vor, dass sein Gott der Zufall sei. Der gleiche Vorwurf wird übrigens auch in dem Buch „Die Neuen Atheisten, ihre Thesen auf dem Prüfstand“ von Hubertus Mynarek erhoben. Was diese Herren nicht realisiert haben, ist, dass ein Gott, der die noch vorhandenen Lücken naturwissenschaftlicher Erkenntnis füllt, ein recht erbärmlicher Gott ist. Er ist sozusagen ständig auf der Flucht vor den Naturwissenschaftlern und sein Wirkungskreis wird immer weiter eingeschränkt. Etwas intelligentere Theologen haben sich längst von diesem Bild eines Lückenbüßergottes verabschiedet.

Dass unser naturwissenschaftliches Weltbild noch Lücken aufweist, steht außer Frage. Wenn dem nicht so wäre, könnten wir morgen die gesamte naturwissenschaftliche Forschung einstellen. Die Erfahrung aus der Vergangenheit hat uns aber gelehrt, dass wir durch mühsames wissenschaftliches Forschen Fortschritte erzielen können. Dagegen ist das Füllen der noch vorhandenen Lücken mit irgendwelchem religiösen Hokuspokus nichts anderes als der Ausdruck von Einfältigkeit und geistiger Armut.

Das Prinzip der Evolution ist so mächtig und erfolgreich, dass es längst auch in der Entwicklung von technischen Dingen angewendet wird. So werden z.B. Teile unserer Mobiltelefone mit Computersimulationsprogrammen optimiert, die zum Teil mit evolutionären Algorithmen arbeiten. Das gängige Argument der Vertreter des Intelligent Design für einen „Uhrmachergott“ ist ja folgendes: wenn jemand zufällig eine Uhr findet, dann vermutet er völlig richtig, dass es einen Designer für diese Uhr gegeben haben muss, und dass sie nicht durch Zufall entstanden sein kann. Da der menschliche Körper sehr viel komplexer aufgebaut ist, muss es dann, nach der Logik der Autoren, auch hierfür zwingend einen Designer gegeben haben. Das Beispiel mit dem Mobiltelefon zeigt aber, dass genau das Gegenteil richtig ist.

Je komplexer Dinge sind, desto weniger ist ein Designer in der Lage, die Vielzahl der Möglichkeiten bzw. der Parameter und ihre Auswirkungen zu überblicken. Viele unserer komplexen technischen Dinge werden heutzutage mit Computersimulationen optimiert. Selbst der Markterfolg von neuen Produkten unterliegt evolutionären Selektionsprinzipien. Beim menschlichen Körper sind die Mechanismen so komplex, dass ein Designer, selbst mit nur kleinen gezielten Eingriffen, das Ergebnis mit großer Wahrscheinlichkeit nur verdorben hätte. Es gibt in unserer Welt für die Optimierung komplexer Systeme keinen mächtigeren und erfolgreicheren Algorithmus als den der Evolution. Davon ganz abgesehen ist die Erklärung der Entstehung von komplexen Dingen durch einen Schöpfer, der selbst noch komplexer ist, keine wirkliche Erklärung, sondern bestenfalls eine Verklärung der Dinge, denn dann stellt sich ja sofort die Frage, wie Gott selbst entstanden ist.

Im Kapitel III mit dem Titel „Dawkins trügerische Philosophie“ gehen die Autoren auf Versuche der Neuen Atheisten ein, Gottes Wirken wissenschaftlichen Experimenten zu unterziehen. Doppelblindversuche, die in den USA durchgeführt wurden, haben z.B. gezeigt, dass Beten für Kranke völlig wirkungslos ist. Dazu schreiben die Autoren: „Der Irrtum des Gebetsexperiments im Doppelblindversuch besteht darin, dass es Gott wie eine Art natürliche Ursache behandelt und nicht als ein personales, rationales Sein. Auf diese Weise aber wird Gott zu Unrecht dem demütigenden Versuch unterworfen, der ihn für ein Experiment behandelbar macht. Das Experiment ist, kurz gesagt, eine Kränkung, die jedes vernünftige Wesen, ob übermenschlich oder nicht, als solche empfinden würde.“ Dieses Statement offenbart die Hilflosigkeit der Autoren. Jeder Versuch, Gottes Wirken einer wissenschaftlichen Untersuchung zu unterziehen, wird als Beleidigung aufgefasst. Von Seiten der Wissenschaft betrachtet ist dies nichts anderes als eine Bankrotterklärung.

In den Kapiteln V und VI wird das Problem der Moralität behandelt. Die Autoren versuchen hier klar zu machen, dass es für die Neuen Atheisten weder Gut noch Böse gibt und dass sie auch keine Moral besitzen (S.132): „Ein Atheist kann nicht zugleich einer gottlosen Beschreibung der Evolution und einer Art sexuellen Treue beipflichten, die eine geschichtliche Besonderheit des Christentums ist.“ Wenn dies so richtig wäre, dann sollte man ja im Umkehrschluss erwarten, dass Christen weniger außerehelichen Sexualverkehr haben als Atheisten. Statistische Untersuchungen in den USA haben aber gezeigt, dass dies keineswegs der Fall ist. Der einzige feststellbare Unterschied ist, dass Christen bei ihren „unmoralischen Taten“ ein schlechteres Gewissen haben.

Eben dies ist genau die Leistung der christlichen Religion: ihren Anhängern ein schlechtes Gewissen zu machen und ihnen damit das Leben zu vermiesen. Das Gute und das Böse schlechthin sind in der Tat Erfindungen der Religionen. Und sie haben nichts mit der Wirklichkeit zu tun. Was es dagegen gibt, sind Freud und Leid. Das Leid zu vermindern und die Freude zu vergrößern, muss das Ziel jedes vernünftigen Menschen sein. Im Christentum wird dagegen das irdische Leid verherrlicht, indem auf die Belohnung im Jenseits verwiesen wird. Leider gibt es immer noch genügend Menschen, die mangels Vernunft oder Bildung auf dieses Heilsversprechen hereinfallen.

Weiterhin schreiben die Autoren (S.153): „Die eigentliche Grundvoraussetzung der christlichen Moralität ist die jüdisch-christliche Annahme, dass die Menschen in grundsätzlicher Weise von den Tieren unterschieden sind. Die Menschen sind zwar in wesentlichen Hinsichten Tiere, da sie aber nach dem Bilde Gottes geschaffen wurden, werden sie zu einem Ort gewisser endgültiger moralischer Normen, Normen, die durch die Offenbarung verdeutlicht werden.“ Die Annahme, dass sich der Mensch grundsätzlich von den Tieren unterscheidet, kann wissenschaftlich nicht bestätigt werden. Die intellektuellen Fähigkeiten des Menschen sind zwar einzigartig, aber dafür besitzen manche Tiere andere einzigartigen Fähigkeiten, die der Mensch nicht hat. Wenn der Mensch nach dem Bilde Gottes geschaffen wurde, dann muss es sich um einen recht armseligen Gott handeln. Die Festlegung endgültiger moralischer Normen, die angeblich offenbart wurden, ist reines Wunschdenken und sie ist im Kern zutiefst unvernünftig und menschenverachtend; denn jeder Fundamentalist kann behaupten, dass Gott ihm irgendwas offenbart hätte, was ihn dann z.B. dazu berechtigt, Genitalverstümmelungen an kleinen Kindern vorzunehmen oder Ungläubige umzubringen.

Im letzten Kapitel wird völlig richtig festgestellt, dass es den Neuen Atheisten derzeit an Macht fehlt, um ihre Forderungen durchzusetzen und es wird daher davor gewarnt, dass diese Leute jemals politische Macht erringen könnten. Gerade in Deutschland sitzen immer noch überwiegend Christen an den Schalthebeln der Macht. So konnten sie erst kürzlich durchsetzen, dass entgegen jeder Vernunft und gegen jedes Mitgefühl, die Genitalverstümmelung von Jungen legalisiert wurde. Auf diese Art der Herzensgüte von Christen, die elementare Grundrechte verletzt, können wir gerne verzichten.

Neben der Erfüllung sozialer Funktionen und der Befriedigung spiritueller Bedürfnisse lag, wie der Philosoph David Hume schon Mitte des 18. Jahrhunderts feststellte, die Ursache für die Entstehung von Religionen in der Unwissenheit und Furcht der Menschen. Wissenschaftliche Erklärungen standen ihnen nicht zur Verfügung. Das hat sich in den letzten Jahrhunderten, und besonders in den letzten Jahrzehnten drastisch verändert. Wir haben jetzt für alle tiefgründigen Fragen, wie z.B. die Entstehung der Welt und die Entstehung des Menschen zumindest wissenschaftliche Hypothesen zur Verfügung. Selbst für die Festlegung ethischer Grundsätze gibt es mittlerweile wissenschaftliche Ansätze. Da der Neue Atheismus mit einem Schwerpunkt auf diesen wissenschaftlichen Erkenntnissen basiert, bleibt den Autoren nur der armselige Versuch, diese selbst in Zweifel zu ziehen bzw. die noch vorhandenen Lücken mit irrationalen Wunschvorstellungen zu füllen. Insofern bringt das Buch nichts wirklich Neues und man kann sich daher das Lesen sparen. Das Triumphgeschrei einiger Rezensenten bei Amazon und im Blog kath.net über die angebliche Widerlegung des Neuen Atheismus durch dieses Machwerk zeugt nur von deren Einfältigkeit und ihrer mangelhaften naturwissenschaftlichen Bildung.

Bernd Vowinkel
Kommentar Kommentare (6) | Kommentar als Link | Neuester Kommentar: Nov 27, 2014 1:19 PM CET


Naturwissenschaft und Glaube: Impulse zum Dialog
Naturwissenschaft und Glaube: Impulse zum Dialog
von Erhard Mayerhofer
  Broschiert
Preis: EUR 19,90

3 von 12 Kunden fanden die folgende Rezension hilfreich
1.0 von 5 Sternen Rationalismus versus Irrationalismus, 19. Januar 2012
Verifizierter Kauf(Was ist das?)
Dieses Buch ist einer jener hilflosen und verzweifelten Versuche, die Naturwissenschaft und den Glauben miteinander zu versöhnen. Es handelt sich im Wesentlichen um die Dokumentation eines Symposiums, das im Dezember 2006 im Kardinal König Haus in Wien stattfand. Veranstalter des Symposiums war in erster Linie das Religionspädagogische Institut der Erzdiözese Wien. Dementsprechend ausgesucht waren auch die Teilnehmer des Symposiums. Ernsthafte Religionskritik war damit wohl von vornherein ausgeschlossen. So wurde auch bei den meisten naturwissenschaftlichen Beiträgen immer wieder darauf abgehoben, wie gut doch die naturwissenschaftlichen Forschungsergebnisse mit dem Glauben zu vereinbaren seien.

Im Geleitwort von Christine Mann wird mit Zitaten vom Zweiten Vatikanischen Konzil darauf hingewiesen, dass sich die katholische Kirche, "in einem langen Prozess, der auch schmerzlich war", den Naturwissenschaften geöffnet habe. Da bekommt man direkt Mitleid mit der katholischen Kirche. Vergessen ist offenbar, wie schmerzlich es bei diesem Prozess für die Naturwissenschaftler war, die von der Inquisition verfolgt wurden. Schmerzlich war es im Mittelalter auch für alle die Kranken, die aufgrund der massiven Behinderung der wissenschaftlichen Medizin durch die Kirche eine Behandlung erhielten, deren Niveau zum Teil unter dem der Antike lag. Davon ganz abgesehen, scheint sich die Öffnung des gegenwärtigen Papstes gegenüber den Naturwissenschaften sehr in Grenzen zu halten. So behauptet er nach Angaben der Nachrichtenagentur AP, dass die Evolutionstheorie keine vollständig wissenschaftlich bewiesene Theorie sei. Die Autorin zitiert weiterhin das Konzil mit der Feststellung, dass demütige Forscher "auch wenn sie sich dessen nicht bewusst sind, gleichsam mit der Hand Gottes geführt werden". Das ist schon sehr erstaunlich, wo doch diese Leute ständig Dinge herausfinden, die den Glauben an einen Gott erschweren und mittlerweile einen Schöpfergott gänzlich überflüssig machen.

Im Vorwort stellt Erhard Mayerhofer fest, dass "ein ernsthafter und echter Dialog zwischen Physik, Biologie und Theologie heute mehr denn je dringend notwendig scheint". Für die Theologie mag das sogar eine Frage des Überlebens sein, für die Naturwissenschaften ist er dagegen völlig verzichtbar. Worin könnte der Gewinn für die Naturwissenschaftler liegen, wenn sie sich neben der Realität auch noch mit irrationalen Dingen beschäftigten?

Es folgt im Hauptteil des Buches ein Beitrag von Dieter Meschede über "Einstein, Heisenberg und die Folgen für unser Denken", in dem vor allem auf die Umwälzungen des physikalischen Weltbildes im 20. Jahrhundert eingegangen wird. Sein Fazit ist, dass Naturwissenschaft und Religion weitgehend entflochten sind, da ihre Anliegen konzeptionell verschiedene Aspekte der Wirklichkeit behandeln. Da muss man sich dann allerdings fragen, welche Aspekte der Wirklichkeit denn die Wissenschaft nicht behandelt. Gerade der atemberaubende Erfolg der Naturwissenschaft innerhalb des letzten Jahrhunderts zeigt doch, dass man hier auf dem richtigen Weg ist. Sowohl der Glaube als auch die Metaphysik haben dagegen über Jahrtausende hinweg absolut nichts zur Erforschung der Wirklichkeit beigetragen können. Sie haben im Gegenteil die Forschung sogar behindert. Meschede hätte nur dann Recht, wenn wir die verschiedenen Aspekte so definieren würden: Die Wissenschaft befasst sich mit der Realität, und die Religion befasst sich mit Imaginärstoffen.

Im nachfolgenden Kapitel von Annette G. Beck-Sickinger und Sabine Kanton werden unter dem Titel "Vom Gen zum Protein" die Grenzen und Möglichkeiten der Biochemie behandelt. Die Autorinnen halten sich dabei wohltuend mit Kommentaren zur Religion zurück. Im Kapitel "Wie viel Gott verträgt die Wissenschaft" kommt dann der Autor Bertram Stubenrausch zu den eigentlichen Kernthemen der Diskussion. Er definiert den Unterschied zwischen Naturwissenschaft und Glaube auf Seite 82 exemplarisch so:

"Es ist ganz und gar unwissenschaftlich, Urteile über ein großes Ganzes zu fällen auf der Basis von Voraussetzungen, die per definitionem nur einen Ausschnitt der Wirklichkeit unter die Lupe nehmen.

Die Naturwissenschaften wollen wissen, wie etwas geschieht und haben es mit objektiven Tatsachen zu tun; die Religion beschäftigt sich mit Werten und dem letzten Sinn des Daseins.

Theologie und Naturwissenschaften tragen je auf ihre Weise zum Fortschritt der einen Menschheit in der einen Welt bei. Deshalb lautet die eigentlich wichtige Frage nicht, ob da Gott zu vermuten sei, wo die Wissenschaft (vorerst) nur Dunkelheit ausmacht. Sondern zu diskutieren ist, wie sich Gott denken lässt angesichts all dessen, was die Wissenschaft bereits weiß."

Der erste Satz wäre nur dann richtig, wenn Naturwissenschaftler endgültige Urteile über das Ganze fällen würden, was sie allerdings in aller Regel nicht tun. Es ist aber durchaus wissenschaftlich zulässig, Hypothesen über das Ganze aufzustellen. Solange kein Ausschnitt der Wirklichkeit diese widerlegt, sind sie als vorläufig beste Beschreibung der Wirklichkeit anzusehen.

Der zweite Satz suggeriert, dass die Naturwissenschaften grundsätzlich nicht in der Lage wären, Aussagen über Werte und den letzten Sinn des Lebens zu machen. Das aber ist rückständiges Denken der Theologen. Es gibt inzwischen durchaus Ansätze, z.B. in der evolutionären Psychologie, auf wissenschaftlichen Wegen zu objektiven Werten zu gelangen. Siehe dazu z.B. das Buch "Der Darwin Code" von Thomas Junker und Sabine Paul sowie das Buch von Sam Harris "The Moral Landscape, how Science can determine human Values".

Auch über den letzten Sinn des Lebens kann die Naturwissenschaft wichtige Hinweise geben. Was die Kosmologie schon jetzt mit großer Sicherheit sagen kann, ist, dass unsere Zivilisation nur eine begrenzte Lebenserwartung hat. Irgendwann wird es von unserer Existenz keinerlei Spuren mehr geben. Wenn aber nichts mehr von uns bleibt, dann kann es prinzipiell keinen letzten, höheren Sinn unseres Daseins geben. Eine Wiederauferstehung im Jenseits mit all unseren Erinnerungen ist naturwissenschaftlich gesehen, mit an Sicherheit grenzender Wahrscheinlichkeit, völlig unmöglich.

Im letzten Absatz wird die schon als unverschämt zu bezeichnende Behauptung aufgestellt, dass die Theologie zum Fortschritt der Menschheit beigetragen hätte. Worin bitte liegt dieser? Richtig ist vielmehr das genaue Gegenteil. So hat die katholische Kirche in dem als "dunklen Zeitalter" bezeichneten Zeitraum von etwa 500 bis 1500 jedweden Fortschritt der Wissenschaft und der Kultur systematisch unterdrückt durch Bücherverbrennungen und ihrem Monopol bei der Herstellung und der Kopie neuer Bücher. Alles was dem irrationalen Weltbild der Kirche widersprach, durfte nicht veröffentlicht werden.

"Die Religion beschäftigt sich mit Werten"...mit welchem Erfolg? Verfechter des Christentums haben im Laufe der letzten zweitausend Jahren mehr als 100 Millionen Menschen ermordet (siehe Karlheinz Deschner: "Die Kriminalgeschichte des Christentums"). Sie sollten zum Thema Werte und Ethik besser für immer schweigen!

Die Frage, wie sich Gott denken lässt, nach all dem was die Wissenschaft inzwischen weiß, ist recht einfach zu beantworten: so gut wie überhaupt nicht! Richtig ist dennoch, dass die Naturwissenschaft keinen absoluten Wahrheitsanspruch vertreten kann. Aber die Theologie kann das noch viel weniger. Sie steht letztlich mit leeren Händen da. Außer ihrem infantilen Wunschdenken und einem alten Märchenbuch, dessen historische Wahrheiten auf einer Postkarte Platz hätten, hat sie nichts zu bieten. Auch die Vernunft hilft ihr nicht wirklich weiter, denn dass man auf einen Schöpfergott aus Vernunftsgründen nicht schließen kann, hat schon Immanuel Kant bewiesen.

Den Schülern, für die dieses Buch in erster Linie verfasst wurde, kann man nur raten, Bücher zu lesen, die Wissen verbreiten statt religiösem Wunschdenken. Dass manche Schüler über mehr kritisches Urteilsvermögen verfügen als ihre Religionslehrer, zeigt ein Kommentar im Kapitel "Gottes Natur". Dort regt sich der Autor Walter Eckensperger auf Seite 133 darüber auf, dass eine Schülerin nach 14 Jahren Religionsunterricht im Nachwort einer Fachbereichsarbeit über die historischen Probleme der Evolutionstheorie mit großer Zustimmung Richard Dawkins zitiert, über die Dummheit der Religion im Allgemeinen und die Verbohrtheit des Schöpfungsglaubens im Besonderen und zu dem Schluss kommt, dass durch die Naturwissenschaften das Welterklärungspotential der Religionen endgültig desavouiert sei. Im Gegensatz zu Eckensperger kann man vor einer solchen Schülerin nur größte Hochachtung haben. Sie hat sich ganz offensichtlich ihr kritisches Denkvermögen trotz 14 jähriger Verdummungsbemühungen ihrer Religionslehrer erhalten.

Zusammenfassend kann man sagen, dass dieses Buch so überflüssig ist wie der gesamte konfessionelle Religionsunterricht. Die Flucht der Theologie vor den Naturwissenschaften wird weiter gehen, bis ihr nur noch die reine Esoterik bleibt. Wenn sich die Theologen auch nur annähernd über den intellektuellen Abstand zwischen den Spitzenkräften der Naturwissenschaften und ihnen selbst im Klaren wären, dann würden sie sich wahrscheinlich vor Verzweiflung vom höchsten Stockwerk ihres Elfenbeinturms in die Tiefe stürzen.
Kommentar Kommentar (1) | Kommentar als Link | Neuester Kommentar: Jan 19, 2012 5:16 PM CET


Philips HTS5591/12  5.1 3D Blu-Ray Heimkinosystem (HDMI, 1000 Watt, DivX-Ultra, USB 2.0)
Philips HTS5591/12 5.1 3D Blu-Ray Heimkinosystem (HDMI, 1000 Watt, DivX-Ultra, USB 2.0)

12 von 27 Kunden fanden die folgende Rezension hilfreich
2.0 von 5 Sternen Technisch gut aber etwas benutzerunfreundlich, 18. Juni 2011
Verifizierter Kauf(Was ist das?)
An der Leistung der Anlage gibt es nichts zu kritisieren. Der Klang ist hervorragend und die verzerrungsfreie Maximallautstärke ist für eine normale Wohnung völlig ausreichend. Allerdings musste ich nach dem Auspacken der Teile erst mal zum Lötkolben greifen, um die Lautsprecherkabel zu verlängern. Hier hat man am falschen Ende gespart. Insbesondere bei den Rücklautsprechern fehlten gut 2m. Für sehr kleine Räume mögen die Kabellängen ausreichend sein, aber nicht für durchschnittliche oder gar größere Räume.

Die Anzeigen haben eine so geringe Helligkeit, dass man sie in mehr als zwei Metern kaum noch ablesen kann. Der eingebaute Mikroprozessor ist elend langsam, so daß das Umschalten auf verschiedene Eingänge mühsam wird. Dazu kommt dann noch, dass die Fernbedienung eine symmetrische Form hat, so dass man immer erst zweimal hinschauen muss, ob man sie auch richtig herum in der Hand hält. Insgesamt hat man den Eindruck, dass hier beim Design Theoretiker am Werk waren.
Kommentar Kommentar (1) | Kommentar als Link | Neuester Kommentar: Jul 26, 2011 5:02 PM MEST


Warum ich kein Christ sein will - Mein Weg vom christlichen Glauben zu einer naturalistisch-humanistischen Weltanschauung
Warum ich kein Christ sein will - Mein Weg vom christlichen Glauben zu einer naturalistisch-humanistischen Weltanschauung
von Uwe Lehnert
  Broschiert

20 von 27 Kunden fanden die folgende Rezension hilfreich
5.0 von 5 Sternen Phantasie und Wirklichkeit, 23. März 2011
Mit diesem Buch ist dem Autor ein ganz hervorragendes Werk zur Aufklärung im besten Sinne gelungen. Es ist sachlich sowohl in seinen geisteswissenschaftlichen Grundlagen als auch in Bezug auf die Naturwissenschaften sehr fundiert und dennoch für einen Leser mit durchschnittlicher Bildung gut verständlich geschrieben.

Der Autor zeigt, dass der christliche Glaube ein Produkt der menschlichen Phantasie ist und keinerlei Bezug zur Wirklichkeit hat. Im Gegensatz dazu bezeichnet der Autor die Naturwissenschaften sehr treffend als Wirklichkeitswissenschaften. Sie sind unser einziger verlässlicher Zugang zur Wirklichkeit. Zur Anerkennung der Wirklichkeit gehört die Abkehr vom Geist-Körper Dualismus und der Idee der absoluten Willensfreiheit.

Der Autor verharrt nicht bei reiner Religionskritik, sondern diskutiert auch echte Alternativen. Er zeigt, dass wir für eine Ethik keine Religion brauchen und dass es keinen höheren Sinn des Lebens gibt, sondern dass der Sinn des Lebens im individuellen Glück im Diesseits liegt.

Besonders hoch anzurechnen ist dem Autor, dass er den Naturalismus, im Gegensatz zu vielen anderen Vertretern des naturalistischen Humanismus, zu Ende denkt und damit zu einer eher positiven Grundhaltung zum Transhumanismus kommt.

Wer nach der Lektüre des Buches immer noch an seinem christlichen Glauben festhält, dem fehlt es einfach an Verstand und Vernunft.


Seite: 1 | 2 | 3