denkend glauben

Jochen Klein

Texte und Materialien zum christlichen Glauben

Kritisches zur Wissenschaft(stheorie)

Einleitung

Lange Zeit überzeugte die Formulierung „Die Wissenschaft sagt“ viele Menschen, denn die Wissenschaft war eine der stärksten und einflussreichsten Stimmen, auf die man hörte. Oft wurden auch Sätze wie „Die Wissenschaft hat gezeigt“ verwendet, als ob sie ein personales Wesen mit großer Autorität und großem Wissen wäre.

Wenn man sich auf die Wissenschaft berief, meinte man relativ sicher zu sein; denn wer wollte es wagen, ihr zu widersprechen? Deshalb hörte man auch häufig: „Ich bin auf der Seite der Wissenschaft.“ Spätestens in der letzten Zeit ist aber immer mehr Menschen klar geworden, dass dies in vielen Bereichen nicht aussagekräftig ist. Vielmehr stellt sich die Frage: Welcher Wissenschaft? Um das Ergebnis vorwegzunehmen: Es gibt tatsächliche Wissenschaft, die bei den Fakten bleibt. Die andere dagegen nennt die eigenen Meinungen und Schlussfolgerungen „Wissenschaft“, für die man Akzeptanz fordert, obwohl man die Fakten auch ganz anders deuten könnte. So stellt sich die Frage: Was ist eigentlich Wissenschaft? Und wie gehen wir mit „Wissenschaft“ um?

  1. Ein historischer Überblick

1.1. Das Mittelalter

Werfen wir zunächst einen kurzen Blick in die Geschichte: Wenn wir uns die ersten Universitäten in unserem Kulturkreis anschauen, ist es interessant festzustellen, dass sie säkulare Institutionen waren. Die letzte Universität des Altertums in Athen wurde 529 n. Chr. von dem christlichen Kaiser Justinian geschlossen, weil ihr Lehrstoff die Philosophie der Heiden war. Die Wiederherstellung der Institution Universität gegen Ende des 12. Jahrhunderts geschah im Zusammenhang mit der Aufnahme heidnischen Kulturguts als Studienobjekt. Man wollte auch durch die Werke der Heiden Weisheit lernen. Konkret waren es die Schriften des griechischen Philosophen Aristoteles (384–322 v. Chr.), die die Universitätsgründung in Paris veranlassten. Die Auseinandersetzung mit diesen Schriften geschah im Zusammenhang mit der Theologie.

Die Scholastik bemühte sich dann, die neuen rationalen Erkenntnisse mit den Glaubenssätzen in Übereinstimmung zu bringen, was die gesamten theologischen Anstrengungen des Hoch- und Spätmittelalters ausmachte. Man meinte also, zur Orientierung neben der Bibel die Philosophie heidnischen Ursprungs zu benötigen. Die Folge davon war, dass man das Wort Gottes nur noch als einen von zwei Bezugspunkten des Denkens nahm und das Prinzip verließ, dass „in Christus alle Schätze der Weisheit und der Erkenntnis verborgen“ sind (Kolosser 2,3). Anfangs maß man der Bibel zwar noch mehr Bedeutung bei als der Philosophie, aber es dauerte nicht lange, bis die heidnische Denkweise nach und nach die Oberhand gewann. Als Gebildete waren die Theologen zwar in der Lage, das, was die Philosophen schrieben, geistig zu erfassen. Eine kritische Auseinandersetzung mit relevanten Aspekten hätte sicherlich notwendig und sinnvoll sein können. Stattdessen nahm aber die Theologie mehr und mehr die atheistisch-antigöttlichen Voraussetzungen der Philosophie als ihre eigene Denkgrundlage an, auch wenn dies vielen Theologen oft nicht direkt bewusst war und das Kirchenvolk es oft nicht bemerkte.

Die Einbeziehung der Philosophie des Aristoteles in die Theologie des Mittelalters wurde unterschiedlich umgesetzt. Fest steht aber, dass sie von nun an für die Theologen als zweite Erkenntnisquelle neben der Bibel galt. Diese Entwicklung hat Folgen bis heute, da so die gedankliche Basis nicht mehr die Heilige Schrift ist, sondern eben die weltliche Philosophie. Eine konkrete Konsequenz zeigt sich in Bezug auf das Weltbild. Aristoteles vertrat z. B. die Auffassung, die Sonne drehe sich um die Erde. Sein Weltbild wurde im Laufe der Zeit für das Weltbild der Antike gehalten. Als man die Bibel dann irgendwann als „antikes Buch“ abwertete, unterstellte man ihr irrigerweise, ihr Weltbild sei das Weltbild der Antike, also das Weltbild des Aristoteles gewesen. Folglich schrieb man alle Irrtümer des Aristoteles auch der Bibel zu und zog den Fehlschluss, wegen dieses überholten Weltbildes bedürfe sie der Entmythologisierung. Das Weltbild des Aristoteles war aber nicht das Weltbild der Antike, sondern nur eines unter anderen. Es war auch nicht das Weltbild der Bibel (auch weil das Alte Testament längst geschrieben war, als Aristoteles 380 v. Chr. geboren wurde).

1.2. Der Humanismus

Bereits zur Zeit der alten Kirche hatte es von Philosophen Kritik am christlichen Glauben und an der Heiligen Schrift gegeben. Sie trat von außen, aus dem Heidentum an die Kirche heran. Apologeten und Kirchenväter setzten sich mit ihr auseinander.

Mit dem Humanismus ab ca. 1400 n. Chr. gewann die Vorstellung immer mehr an Einfluss, dass nicht Gott, sondern der Mensch im Mittelpunkt des Denkens steht. Das hatte Auswirkungen auf die Theologie, die sich dieser Denkweise verschrieb. Bis heute kann man vielfältige Erscheinungsformen dieses Denkens beobachten, das die Vernunft als Quelle der Erkenntnis betrachtet.

Am Anfang des Denkens der „Neuzeit“ gingen die geistig einflussreichsten Personen also hinter das biblische Denken zurück und suchten ihre Orientierung in der heidnischen Antike. Die Humanisten machten den Menschen zum Maß aller Dinge. Dies stellte eine entschiedene Abkehr vom biblischen Denken dar, auch wenn biblische Begriffe noch reichlich verwendet wurden. Der Vollständigkeit halber muss erwähnt werden, dass einige Humanisten sowohl gegenüber der Antike als auch gegenüber dem Christentum kritisch eingestellt waren und andere im Christentum noch bestenfalls eine Bildungsreligion sahen, die in „Sitte und Sittlichkeit“, in „Wissenschaft und Kultur“ gipfelte. So wurde das Christentum nicht mehr als etwas angesehen, das einen lebendigen Glauben ausmachte, sondern als Religion, die mit anderen vergleichbar wäre. Fortan wurde auch die Bibel am Maßstab der Kultur gemessen, und ihr Charakter als Offenbarung Gottes spielte für die meisten keine Rolle mehr. Schließlich wurde Produkten menschlichen Denkens und menschlicher Kreativität vom Humanismus oft der Charakter von Wahrheit zuerkannt, was mit einer Relativierung absoluter biblischer Gültigkeit einherging. Im Humanismus gilt nämlich stark die Verpflichtung zur „Wahrheit“. Der Ertrag menschlichen Denkens und das Ergebnis menschlicher Kreativität wird so oft als Wahrheit angesehen. Eine einzige Wahrheit existiere in der Welt, nur ihre Strahlen seien verschieden. Faktisch wird die Wahrheit dadurch aber relativiert. Alles kann wahr und wertvoll sein. Und eine absolute Wahrheit gibt es für den Humanismus weitgehend nicht.

Zentral für den Humanismus war also:

Anthropozentrismus: Nicht Gott ist der Ausgangspunkt und Mittelpunkt des Denkens, sondern der Mensch.

– Die Relativierung der (biblischen) Wahrheit.

1.3. Die Aufklärung

Die Epoche der Aufklärung brachte in Bezug auf die Relativierung des christlichen Glaubens nichts grundlegend Neues[1]. So behauptete Francis Bacon, jegliche Wahrheit werde induktiv gefunden (= vom Einzelnen zum Allgemeinen hinführend); er trennte den Bereich der Vernunft und Wissenschaft von demjenigen des Glaubens und der Religion ab und definierte den Glauben als ein Opfern des Verstandes. Auch Thomas Hobbes trennte Glauben und Denken radikal und verwies die Dinge des Glaubens in den nicht verifizierbaren paradoxen Bereich der Absurditäten und Widersprüchlichkeiten. Damit waren sowohl die Grundlagen für die Bibelkritik gelegt als auch für den atheistischen Ansatz, der sämtliche Wissenschaften bestimmen sollte.

Der Aristotelismus und der Humanismus schufen so die antitheistischen Voraussetzungen.

Hier noch ein paar Beispiele:

Francis Bacon (1561–1626): Die Wahrheit kann nur auf der Grundlage von Erfahrungen gefunden werden, die durch Vernunftschlüsse von der Einzelbeobachtung zu allgemeinen Gesetzen fortschreiten. Wie bereits erwähnt, wurde der Bereich der Vernunft und Wissenschaft vom Bereich des Glaubens getrennt. Diese Form von Frömmigkeit sei zu loben, da sie glaube, was dem Verstand nicht einleuchten könne.

Thomas Hobbes (1588–1679): Seiner Meinung nach geht jede Idee und jeder Gedanke auf einen Eindruck der fünf Sinne zurück. Er geht davon aus, dass das ganze Weltall Materie sei, und was nicht Materie sei, sei in Wahrheit nicht existent. Hobbes war der Begründer der rationalen Bibelkritik. Er erkennt die unsichtbare Welt nicht an und meint, der Verstand des Menschen sei das Wort Gottes, dem man sich nicht widersetzen dürfe. Diese Ideen waren mit dem Beginnen der Wunderkritik verbunden.

René Descartes (1596–1650): Seit ihm gilt das Prinzip des Zweifels als Grundlage der Philosophie und der Wissenschaft. Dass man alles hinterfragen müsse, wurde zum Grundprinzip des modernen Menschen, der ohne Gott lebt. Damit ist der Zweifel auch zum Grundprinzip aller Wissenschaften geworden – auch der Theologie, soweit sie sich als historisch-kritische Wissenschaft versteht.

1.4. Der deutsche Idealismus

Der Ansatz des Humanismus kam dann im deutschen Idealismus voll zum Zug. Die Gründung des Bildungswesens im Menschenbild der klassischen Antike wurde vertieft, was vor allem Wilhelm von Humboldt (1767–1835) zuzuschreiben ist. In diesem Zusammenhang entstand auch eine atheistische Geschichtswissenschaft, die das Bewusstsein für das Handeln Gottes von vornherein ausschloss.

1.5. Resümee

Festzuhalten ist, dass es für ein Denken, das sich konsequent auf Gottes Offenbarung in seinem Wort gründete, an der Universität bald keinen Raum mehr gab, und dies sowohl im weltlichen als auch im theologischen Bereich. So erscheint es heute für den Studenten, der sich auf eine Universität begibt, von vornherein klar, dass die Nichteinbeziehung Gottes in Studieninhalte selbstverständlich ist. Besonders im Bereich der Technik und der Naturwissenschaften meinen manche die Bestätigung dieses Denkansatzes zu finden. Mittlerweile zeichnet sich aber auch hier ab, dass viele dieser Bereiche so eben nicht völlig zu durchdringen sind, ganz zu schweigen z. B. von medizinischen, ökologischen und ethischen Fragen. Aber auch in den Geisteswissenschaften spielt das Fragen nach Gott nahezu keine Rolle mehr.

  1. Was ist Wissenschaft?

Es steht völlig außer Frage, dass wir für viele Errungenschaften der Wissenschaft dankbar sein können. Ihre Früchte (z.B. in Medizin und Technik) erleichtern uns das Leben und machen vieles angenehmer. Auch Dinge wie die Textforschung in den Geisteswissenschaften sind sehr hilfreich. Es gibt jedoch auch Gebiete, die neue (u.a. ethische) Probleme mit sich bringen, beispielsweise die Künstliche Intelligenz. So ist es zunächst einmal wichtig, sich zu fragen, was Wissenschaft überhaupt ist.

Bei der Wissenschaft scheint es so zu sein wie bei vielen Dingen: Wir meinen zu wissen, was es ist, bis wir versuchen, es zu definieren. Dann stellen wir nämlich fest, dass eine genaue Definition nicht möglich ist. Dies liegt unter anderem daran, dass wir den Begriff vielfältig verwenden, z.B. für Wissensgebiete (Physik, Chemie, Biologie usw.), Wissenschaftler (also Menschen, die auf diesen arbeiten) und die wissenschaftliche Methode (die Art und Weise, wie Wissenschaftler ihre Arbeit tun). Zudem gibt es so etwas wie „die Wissenschaft“ genau genommen gar nicht, da sie weder etwas sagen oder demonstrieren noch etwas entdecken kann. Dies tun Wissenschaftler. Sie ist auch oft viel komplexer, als es den Anschein hat.

Da es eine wissenschaftliche Methode nicht gibt, ist es hilfreich, danach zu fragen, was zur wissenschaftlichen Arbeit gehört. Hier spielen zunächst Beobachtungen und Experimente eine wichtige Rolle, aber auch Argumentationsprozesse, die zu nachvollziehbaren Schlussfolgerungen führen.

Seit dem 16. und 17. Jahrhundert hat sich das wissenschaftliche Denken grundlegend verändert. Bis dahin hatte man sich bei der Erforschung der Natur und des Universums in erster Linie auf eine Autorität berufen, so z.B. oft auf Aristoteles. Wissenschaftler wie Galileo Galilei wandten sich aber von diesem Ansatz ab, indem sie für die Freiheit plädierten, den Ergebnissen von Beobachtungen und Experimenten gerecht zu werden, auch wenn dies bedeutete, dass man überlieferte Theorien modifizieren oder aufgeben musste.

Zunächst ist es in der Wissenschaft wichtig, dass wir unseren Sinnen und anderen Menschen vertrauen können. Ist dies nicht gewährleistet, kommt es zu Problemen. Der Erwerb wissenschaftlicher Kenntnisse setzt außerdem den Glauben an die rationale Verständlichkeit des Universums voraus.

Die gängige Ansicht über die wissenschaftliche Methode enthält folgende Komponenten:

  1. die Sammlung von Daten (Fakten, die nicht bestritten werden können) durch Beobachtungen und Experimente, von denen weder die einen noch die anderen durch Vorannahmen oder Vorurteile beeinflusst werden;
  2. die Ableitung von Hypothesen[2] aus den Daten, indem man nach Mustern oder Zusammenhängen sucht und diese induktiv[3] verallgemeinert;
  3. die Prüfung der Hypothesen, indem man aus ihnen Vorhersagen herleitet und dann Experimente konzipiert und durchführt, um festzustellen, ob diese Vorhersagen stimmen;
  4. die Verwerfung der Hypothesen, die nicht von den Versuchsdaten gestützt werden, und den Aufbau einer Theorie durch Zusammenführung von bestätigten Hypothesen.

Es sollte klar sein, dass die wissenschaftliche Methode auf jeden Fall ihre Grenzen hat. Die ganze Wirklichkeit kann sie nicht erfassen (z.B. Freundschaft, Liebe, sinnliche Erfahrungen wie einen Sonnenuntergang). Zudem ist man sich heute allgemein einig, dass unsere Beschreibung der wissenschaftlichen Methode nicht nur stark idealisiert, sondern auch fehlerhaft ist. So besteht ein weitgehender Konsens darüber, dass kein Wissenschaftler – wie ehrlich und sorgfältig er auch sein mag – bei seiner Arbeit völlig vorurteilsfrei ist, also ohne Vorannahmen und Vermutungen forscht. Dies ist besonders wichtig, um den Beitrag der Wissenschaft zur Weltanschauung zu verstehen.

Zentrale Begriffe sind in diesem Zusammenhang Induktion und Deduktion. Induktion meint den Prozess, aus einer begrenzten Datenmenge zu einer allgemeingültigen oder generellen Aussage zu kommen. Bei der Deduktion dagegen werden von einer Hypothese logische Vorhersagen abgeleitet, die dann mit den tatsächlichen Beobachtungen verglichen werden. Somit ist Deduktion ein logischer Prozess, bei dem eine Behauptung, die wir beweisen wollen (die Schlussfolgerung), logisch aus etwas hergeleitet wird, das wir bereits akzeptieren (die Prämissen[4]). Logik kann uns aber nicht sagen, ob die Prämissen und die daraus abgeleiteten Schlussfolgerungen wahr sind. Die Logik hat etwas mit der Art und Weise zu tun, wie manche Aussagen von anderen abgeleitet werden, sie kann aber nichts über die Wahrheit dieser Aussagen sagen.

Mit Hilfe der Wissenschaft können wir Dinge verstehen, die wir vorher nicht verstanden haben. Doch sie kann zwar „Wie“-Fragen hinsichtlich Ursachen und Mechanismen beantworten, aber keine „Warum“-Fragen, Fragen nach Sinn und Absicht, Endzweck oder Ziel. Nehmen wir zum Beispiel einen Kuchen. Wissenschaftlich können wir seine Bestandteile untersuchen, aber nie die Absicht des Backenden herausfinden (z.B. einen Geburtstag als Anlass). Dass dies heute oft nicht beachtet wird, erkennt man an der Tatsache, dass Atheisten häufig behaupten, man brauche Gott nicht länger, um die Abläufe der Natur zu erklären. Dies ist ebenso eine Vermischung der Kategorien, wie wenn man behauptet, unser Verständnis der Funktionsprinzipien eines Motors mache den Glauben an die Existenz eines Konstrukteurs überflüssig. So können wir festhalten, dass man sich der Gefahr bewusst sein muss, in der Wissenschaft verschiedene Erklärungsebenen zu vertauschen und zu denken, eine Erklärungsebene erkläre vollständig den Hintergrund.

Bisher haben wir schwerpunktmäßig die Methode betrachtet und bereits angedeutet, dass die verbreitete These, ein Wissenschaftler sei ein objektiver, unparteiischer Beobachter, falsch ist. Jeder Wissenschaftler hat eine Vorstellung oder Idee in Bezug darauf, was studiert werden soll. Daher können ohne jede Vorannahme auch keine Beobachtungen oder Experimente gemacht werden. Dies ist auch deshalb nicht möglich, weil die Wissenschaft selektiv sein muss und nicht jeden Aspekt in Betracht ziehen kann. So muss der Wissenschaftler entscheiden, welcher Aspekt (ihm) eher wichtig ist und welcher nicht. Neben vorgefassten Meinungen vertreten Wissenschaftler auch Annahmen über die Wissenschaft an sich, und diese Vorannahmen können sowohl die Forschungsmethoden der Wissenschaftler als auch ihre Ergebnisse und ihre Interpretation der Ergebnisse erheblich beeinflussen.

Entscheidend für die Wissenschaft ist, welches Paradigma[5] vorliegt. Dies ist ein Netz von Annahmen und Theorien, auf die man sich mehr oder weniger geeinigt hat und die das innere Gerüst bilden, um das herum das wissenschaftliche Gebäude errichtet wird. Das Paradigma setzt die Standards für legitime Forschung. Der Wissenschaftler verwendet diesen Rahmen, um zu forschen. Dabei blickt er aber häufig nicht auf das Paradigma selbst, weil die Mehrheit damit einverstanden ist oder zu sein scheint. Das Paradigma selbst ist daher sehr widerstandsfähig gegen kritische Anfragen.[6] Wenn Schwierigkeit auftreten, wird oft versucht, sie mit dem Paradigma zu harmonisieren oder durch feine Änderungen des Paradigmas zu erklären. Wenn die Probleme jedoch zunehmen, kann es zu einer wissenschaftlichen Revolution kommen, und ein neues Paradigma kann entstehen. Ein Beispiel dafür ist der Übergang von der aristotelischen geozentrischen Astronomie (mit der Erde im Mittelpunkt) zur kopernikanischen heliozentrischen Astronomie (mit der Sonne im Mittelpunkt) im 16. Jahrhundert.

Somit bleibt festzuhalten, dass

  • weltanschauliche Vorannahmen bei der Entwicklung von wissenschaftlichen Theorien eine große Rolle spielen;
  • die Widerstandskraft von Paradigmen gegen Versuche, sie zu widerlegen, zum Teil groß ist;
  • die Wissenschaft menschlichen Schwächen unterworfen ist,
  • Paradigmen oft auch auf tiefster Ebene von weltanschaulichen Überlegungen beeinflusst sind. Aktuell wird z.B. in der Wissenschaft häufig stillschweigend angenommen, dass nur Paradigmen, die auf dem Materialismus basieren, als wissenschaftlich zulässig betrachtet werden können.

Obwohl die Wissenschaft, wie erwähnt, viele positive Aspekte mit sich gebracht hat, ist es für gläubige Christen – besonders auch für die, die studieren – wichtig, die antibiblischen bzw. antichristlichen Grundlagen ihrer Disziplinen zu durchschauen, um nicht selbst in widerbiblisches Denken zu geraten. Sogenannte wissenschaftliche Grunderkenntnisse verschiedener Fachbereiche sind in Wahrheit oft lediglich Ableitungen ihrer antichristlichen Voraussetzungen. Eta Linnemann, Theologin und ehemalige Bultmann-Schülerin, die sich später komplett von der historisch-kritischen Auslegung der Bibel abwandte, schreibt zu diesem Thema, bereits jedem Schüler werde heutzutage eingehämmert, dass „‚wir heute – zum Glück! – nicht mehr im Mittelalter leben‘ und auch das ‚alternative Leben‘ nur im Windschatten der technischen Entwicklung möglich sei. Jeder Student, der sich an die Universität begibt, nimmt das Joch des atheistischen Denkansatzes als unausweichlich auf sich und wird darunter verkrümmt. Das geschieht in der Regel ‚von selbst‘, ohne bewusste Entscheidung durch das Absolvieren des Studienganges eines dieser – bereits im Ansatz a-theistisch konzipierten – Studienfächer. Auch Gotteskinder, die sich an die Universität begeben, kommen unter dieses Joch. Man lässt ihnen zwar – wohlwollend oder spottend, mitunter sogar selber fromm – den Glauben für den Privatbereich. Aber es wird ihnen verwehrt, den lebendigen Gott und seinen Sohn Jesus Christus in ihrem akademischen Denken zu behalten und ihm darin Raum zu geben. So behalten sie Jesus in ihren Gefühlen, aber in ihrem Denken verleugnen sie ihn täglich, weil dieses Denken atheistischen, antichristlichen Prinzipien folgt. Der Monopolcharakter atheistisch inaugurierter[7] Ausbildungsstätten hat dazu geführt, dass man sämtliche ‚technische Errungenschaften‘ auf dem Konto des atheistischen ‚wissenschaftlichen‘ Denkens verbucht … Zugleich verhehlt man sich den Januskopf, das Doppelgesicht dieser Wissenschaften, das die Folge des Gesetzes der Sünde ist, unter dem man in ihnen angetreten ist.“[8]

Halten wir fest, dass es in einer gefallenen Welt den Geschöpfen Gottes möglich ist, ihre von ihm gegebenen Gaben vielfältig – auch wissenschaftlich – einzusetzen. Wenn sie sich an die vom Schöpfer gegeben Rahmenbedingungen halten, kann das viel Segen mit sich bringen. Setzen sie sich dagegen selbst an die Stelle Gottes, wird das zum Schaden sein – wie es z.B. in den atheistischen Philosophien der Fall ist, die sich als allein richtig ausgeben. Diese gilt es bei der Beschäftigung mit diesem Thema zu durchschauen, um ihnen nicht zum Opfer zu fallen. Dafür dürfte eine intensivere Beschäftigung mit diesem Thema zentral sein.

Jochen Klein

Literatur

David Gooding, John Lennox: Was können wir wissen? Können wir wissen, was wir unbedingt wissen müssen? Dillenburg (CV) 2020.

Reinhard Junker / Siegfried Scherer: Evolution. Ein kritisches Lehrbuch. Gießen (Weyel) 72013.

Eta Linnemann: Wissenschaft oder Meinung? Anfragen oder Alternativen. Nürnberg (VTR) 32012.

Alexander vom Stein: Creatio. Biblische Schöpfungslehre. Lychen (Daniel) 32016.

[1] Vgl. „Kritisches zur Aufklärung“, www.denkendglauben.de.

[2] Hypothese: Annahme, die so formuliert ist, dass sie durch Experimente getestet werden kann. Zuerst spricht man von einer „Arbeitshypothese“.

[3] induktiv: Prozess, dass man aus einer begrenzten Datenmenge zu einer allgemeingültigen oder generellen Aussage kommt.

[4] Prämisse: Voraussetzung. Die Evolutionstheorie geht z.B. von der Prämisse aus, dass die Herkunft aller Lebewesen ohne einen Schöpfer erklärt werden kann.

[5] Paradigma: wissenschaftliche Grundanschauung; alle Daten werden in diesem Rahmen gedeutet.

[6] Vgl. dazu das Paradigma des Evolutionismus auf www.denkendglauben.de

[7] inaugurieren: ins Leben rufen.

[8] Eta Linnemann, Wissenschaft oder Meinung, S. 16f.

PDF herunterladen