alles als wissen


die hyperbolik universeller ansprüche


"...im Grunde geht es immer nur um die Herstellung von Metaphern..."

Heiner Müller

totale als urgrund

was sich erkennen und verstehen lässt, soll immer irgendwo hineinpassen. dafür schafft sich die Einbildungskraft einen fulminanten Rahmen. doch wie mächtig kann jener sein, damit das, was jederzeit und an jedem Ort der Fall ist, umfasst wird? es muss sich bei dem Anspruch, für die Vielfalt des Erkennbaren eine All-einheit zu induzieren, wohl um eine bodenlose Vermessenheit handeln, um eine Anmassung, die eine absolute Unbeschränktheit zum Prinzip erhebt wenn solch eine Prätention keine Begrenzung kennt, kann die Leitfrage der Ontologie: "Was gibt es?" einfach mit "Alles" beantwortet werden (siehe Willard Van Orman Quine, "On what there is", 1948)..
Thales von Milet war der Überlieferung nach der erste griechische Philosoph, der einer ontologischen Totale einen Urgrund gab. er destillierte das Ensemble der göttlichen Mythen zu einem substanziellen Alles und war damit hinlänglich erfolgreich. sein Ansatz verpflichtet, obgleich nur auf Wasser gebaut, bis heute ein philosophisches Denken auf das Phantasma bei Thales bekommt die Bestimmung von Gesamtheit mit dem Urstoff Wasser eine mystische Bedeutung und ist somit auf keine rationale Begründung angewiesen. eines Verstehenwollens in einem absoluten Einen.


unmögliche nullperspektive

obwohl erst die Vorstellung von einem allumfassenden Ganzen eine universelle Orientierung garantiert, soll sie die Wirklichkeit nicht als Totalität begrenzen. sie darf keine geschlossene Einheit sein, lediglich ein Einendes, das unbeschränkt bleibt. das wissenschaftliche Denken ist darauf angewiesen, um sich fortwährend selbst überschreiten und aus einer Distanz heraus überblicken zu können. es gelingt am einfachsten mit einer weltanschaulichen Entsprechung, die ohne inhärenten Standpunkt eine Nullperspektive als fundamentum inconcussum schafft. nur ist eine derartige Position strenggenommen eine unmögliche Perspektive, da sie einen archimedischen Punkt ausserhalb des Wissbaren beansprucht. Descartes meinte jenen Standpunkt mit seinem hyperbolisch alles hinterfragenden Zweifel gefunden zu haben bereits Augustinus stellte fest, dass wer auf den Akt des Zweifelns achte, eben darin eine Gewissheit zu finden habe. (De vera religione 39,73). doch wo ein radikaler Zweifel zum Prinzip erhoben wird, droht irgendwann jede Gewissheit, selbst die des Zweifelns verloren zu gehen. der cartesische Zweifel konnte nicht zu einem unbedingten Wissen führen, da es ausgeschlossen ist, an allem zu zweifeln und gleichzeitig in allem getäuscht zu werden Descartes konnte seinen Zweifel letztendlich nur als Methode behaupten..


kosmische evidenz

bei Kant ist das moralische Gesetz im menschlichen Gemüt nicht ohne den bestirnten Himmel zu haben. die Unermesslichkeit des Universums und das subjektive Empfinden werden in eine antinomische Beziehung gebracht, um in der "Kritik der praktischen Vernunft" einen fulminanten Schlussakkord zu setzen das Universum, dessen Relationen man zu Kants Zeit vielversprechend zu erforschen begann, wurde in der "Kritik der praktischen Vernunft" als Inbild des ästhetisch Erhabenen zu einem Pendant für das verallgemeinerbar Sittliche. . von diesem Bezug geht eine erhebende Wirkung aus, da die Übergrösse der Welt die menschliche Einzigartigkeit als etwas Besonderes herausstellt. er kann aber ebenso kränken, wo universelle Weiten voller Kontingenzen die Empfindung aufkommen lassen, nur ein unbedeutendes Staubkorn in einem Weltengetriebe zu sein.
seitdem Raum, Zeit und Materie mit dem Paradigma der Quantenphysik nicht mehr als eine homogene Einheit aber auch das neuzeitliche Denken wird bereits von der Frage enerviert, ob Raum und Zeit eine eigenständige Existenz neben den Körpern zukommt. gesehen werden, stellt sich die Wirklichkeit auch als eine komplexe Unordnung dar. statt erkennbarer Determinismen liegen apriori-Wahrscheinlichkeiten vor, die erst geordnete Strukturen herausbilden, wenn sie jemand erfasst und in plausible Vorstellungen wie die eines Multiversums bringt. gelingt es nicht, wird der kosmische Blick für das nach Erkenntnis strebende Subjekt zu einer Erfahrung der eigenen Haltlosigkeit. zu einer Haltlosigkeit, mit der Erkennbares nivelliert wird. oder relativert, wenn innerhalb kosmischer Dimensionen das menschliche Vorstellungsvermögen seine Begrenzung als eine infinite Freiheit imaginiert, mit der alles möglich und gleich gültig sein kann der Kosmos liegt hierbei als eine Option vor, welche die eigenen Möglichkeiten zur Disposition stellt, ohne selbst zur Disposition zu stehen. .


streben nach vollständigkeit

vielleicht impliziert nur das menschliche Verlangen nach Vollständigkeit die Vorstellung von einer universellen Weltgesamtheit phänomenologisch wird Welt gern als grösster Horizont verstanden, welcher die Peripherie aller Entitäten umfasst . es ist nicht zwangsläufig davon auszugehen, dass die Realität dementsprechend vorliegt. ihr könnte genauso gut ein inkonsistentes Werden zugrunde liegen, eine Genese mit temporären Regelmässigkeiten, die sich als ein Entsprechungsverhältnis allgemeingültig abstrahieren.
obwohl das menschliche Transzendenzvermögen eine Grenzerfahrungen bleibt, endet die Vorstellung von einem Universum nicht immanent an der Endlichkeit erfassbarer Welterfahrungen. wie beschränkt auch das Erkenntnisvermögen sein mag, seine Reichweite ist grundsätzlich offen und antizipiert jedes Aussen mutmassend. damit die Vorstellung von einer Vollständigkeit des Universums nicht aufgegeben werden muss, konzipiert man das Universale inzwischen sogar im Plural als Multiversum Parallelwelten wurden bislang eher als Gedankenexperimente in der Philosphie erörtert. bzw. viele-Welten-Konglomerat.


verum et factum

um Naturwissenschaft betreiben zu können, braucht es die Vorstellung von kausal wirkenden Kräften. auch wenn sie nicht konkret ermittelbar sind, wird daran festgehalten. wer sich darüber hinwegsetzt und verursachende Verknüpfungen verwirft, wenn sie zu Komplikationen führen, gerät wie einst Bertrand Russel in eine Erklärungsnot, solange er nicht äquivalente Alternativen für kausale Relationen vorzuweisen hat Bertrand Russell schlug 1912 in "The Problems of Philosophy" vor, das Wort Ursache aus dem Wortschatz der Philosophie zu streichen. .
obwohl mathematische Modellierungen für natürliche Phänomene im Mikro- und Makrobereich sehr präzise Vorhersagen von Zusammenhängen in Raum und Zeit liefern, liegt bis heute kein akzeptables Konzept vor, das Beziehungen zwischen Ursachen und Wirkungen universell erfasst. alle Versuche, jenes Defizit zu füllen oder zu umgehen, beanspruchen für interdisziplinäre Ansätze zu unterschiedliche Theorien noch im 20.Jahrhundert wurde ein objektiver Kausalitätsbegriff mit naturalistischen Vorstellungen verbunden, dem diverse zirkuläre Ansätze des Konstruktivismus und der Systemtheorie folgten, aber ebenfalls nicht zu befriedigenden Lösungen führten. .
in der Wirklichkeit liegen zu mannigfaltig verschachtelte Verknüpfungen von Abhängigkeiten vor, so dass Ursachenketten nicht vollständig zu separieren sind. selbst vielversprechend probabilistische Interpretationen, die mannigfaltige Verhältnisse als strukturelle Wahrscheinlichkeiten verstehen, bieten bei komplexen Prozessen nur begrenzt Erklärungen für Prognosen kausale Beziehungen sind auch hier Vereinfachungen, mit denen Verhältnisse modellhaft universalisiert werden. . sie sind gleichwohl als Referenzrahmen ein aussichtsreicher Ansatz für das Verstehen mannigfaltiger Wechselwirkungen für David Hume war die Gewohnheit ein solcher Referenzrahmen, der dazu verleitet, für die Zukunft Ähnlichkeitsbeziehungen aus der Vergangenheit abzuleiten. .
man könnte davon ausgehen, dass sich der Begriff der Verursachung aus der menschlichen Erfahrung eines zweckmässigen Handelns abstrahiert hat. nicht die Beobachtung von Veränderungen in der Wirklichkeit, sondern das Streben, sie für eigene Ansprüche zu fassonieren, scheint bei dem Gedanken einer ursächlichen Verbindung grundlegend zu sein. dafür reicht es allgemein gesehen aus, dass sich Kausalitäten experimentell in einem festgelegten Setting von Effekten isolieren und technologisch Prozesse optimieren lassen.
als einer der ersten hat sich Giambattista Vico gegen die Vorstellung gewandt, dass eine methodische Wissenschaft die Natur in toto erfassen könne. von der vergleichenden Rechtsbetrachtung eines Hugo Grotius ausgehend, vertrat er die Überzeugung, dass die Geschichte der primäre Gegenstand des Wissens sei. der Mensch könne deswegen allein die Phänomene bewusst begreifen, die er selbst hervorbringt (verum et factum convertuntur), während die Natur nur der erkennt, der sie erschaffen hat Vico hat in seiner "Neuen Wissenschaft" wohl bereits 1725 den Weg für einen konstruktivistischen Methodenbegriff der Moderne geebnet.. mit einem solchen Ansatz, der eine wesentliche Verwandtschaft zwischen Erkenntnisobjekt und -subjekt radikal einfordert, würde einzig ein Homo ludens das Verbindliche und Einende der Wirklichkeit verstehen, indem er es realiter nachzubauen oder virtuell zu simulieren vermag.


diskrepantes relativieren

wer universell denkt, stellt sein Wissen in komplexe Bezüge und relativiert mit wachsendem Wissensstand Zusammenhänge. schlimmstenfalls erscheint ihm irgendwann alles Erkennbare als relativ wahr. doch die Feststellung, dass alles relativ sei, ist unakzeptabel, solange sie ohne ein absolutes Fundament selbst relativierbar ist. die Aussage, dass alles, was als wahr gilt, nur relativ wahr sein kann, muss hingegen akzeptiert werden. Relativität kann sich allenfalls auf Gegebenes beziehen und kein absolutes Prinzip verkörpern.
der Relativismus als philosophische Denkrichtung hat es nie leicht gehabt, insofern er selten als Denkstil überzeugte und zudem sich mit der klassischen Logik schlecht verträgt. er ist entweder inkonsistent, wo er alles als relativ deklariert, ausser die eigene Position, oder trivial, wenn er allgemein postuliert, dass Wahrheitsansprüche nie sicher sein können wer die Wahrheit von Aussagen und Prämissen als bedingt ansieht, muss auch bereit sein, sich selbst zu relativieren und dieserart bezähmen. ein Gesamtzusammenhang lässt sich nicht auf die Beziehungen seiner Bestandteile, d.h. allein auf relationale Bezüge reduzieren. er beansprucht immer auch die Wahrheit einer fiktionalen Wesenheit, welche nicht relativiert werden darf.


fragilität des wissens

wo Naturwissenschaften umfänglicher Erkenntnisse produzieren, geht der Überblick selbst in lang überschaubaren Bereichen wie der Botanik oder Geologie verloren. mehr Knowhow in der Forschung führt unweigerlich zu Strategien der Ausspezialierung, mit denen Perspektiven für Entdeckungen komplexer und unkalkulierbarer werden.
kommt es bei einer sich ausdifferenzierten Spezialisierung Wissen zu keiner abschliessenden Auflösung, führen neue Erkenntnisse stets zu neuen Warum-Fragen oder einem relativierenden Aber Durchbrüche wie etwa die Entzifferung des menschlichen Genoms können einen besonderen Entdeckergeist wecken, aber ebenso desillusionierend wirken, wenn deutlich wird, dass es noch weiterer Quantensprünge bedarf, um beim Klonen tatsächliche Erfolge in der Humanmedizin zu erzielen. . sogar technische Erfindungen, die sich mit wissenschaftlichen Entdeckungen erfolgreich etabliert haben, sind nicht unfehlbar und mit wachsenden Unwägbarkeiten beanstandbarer denn je in vielen Bereichen der Naturwissenschaften werden deshalb die Grenzen zwischen Wissen und Nichtwissen durchlässiger.. Risiken des technologischen Fortschritts müssen mittlerweile mit viel digitalem Aufwand prognostiziert und reguliert werden, so dass die Beherrschbarkeit technischer Systeme zunehmend Ressourcen verschlingt.
ein Anwachsen von Wissens erzwingt in postmodernen Wachstumsgesellschaften einen Bedeutungsgewinn und zunehmend auch einen Bedeutungswandel des Nichtwissens. der Gegensatz von Gewissheit und Ungewissheit verliert an Trennschärfe und führt zu einer schwer überschaubaren Bedingtheit und Verflochtenheit. es ist ein ewiges Katz-und-Maus-Spiel, das für eine Mobilität von Entwicklungen sorgt, die weniger planbar werden.


immanenz des zufalls

seit der Antike ist das Bestreben ungebrochen, mit Verallgemeinerungen die begreifbare Wirklichkeit einheitlich zu deuten. dabei wird latent vorausgesetzt, dass Unordnungen konträr zu Ordnungen stehen, und gleichzeitig als überkomplexer Zustand ein immanenter Bestandteil in ihnen sein können. für die Erkennbarkeit der Natur bleibt die Vorstellung von einer Willkür unerlässlich, die Annahme einer Willkür als absoluten Zufall, der zwischen einer erkennbaren Ordnung und Unordnung fungiert ein absoluter Zufall muss ein Zufall sein, der grundlos von jeglichen kausalen Zusammenhängen zustande kommen. .
das Chaotische, weil vielleicht als Determination noch Verkannte oder per se Fluktuative, kann im grossen Ganzen erst in der Dreierbeziehung Ordnung-Zufall-Chaos in eine akzeptable Kohärenz gebracht werden unter den Naturwissenschaftlern ging Heisenberg erstmals davon aus, dass es im subatomaren Bereich keine Determination und damit absolute Zufälle geben müsse.. um fortlaufend entscheiden zu können, was strukturiert in welcher Form vorliegt und was nicht, braucht das naturwissenschaftliche Denken ein Vermittelndes, das sich einer Zuordnung entzieht. derartiges kann eigentlich nur ein Zufall leisten, der weder unbestimmbar ist und damit als nicht definierbares Medium universell die Unterscheidung von Ordnung und Chaos garantiert.


offene gewissheit

irrtümliche Annahmen führen nicht zwangsläufig zu falschen Erkenntnissen. sie können sich bei einer falsch interpretierten Faktenlage rein zufällig als wahr erweisen und, wie Bertrand Russell und Alexius Meinong als Erkenntnistheoretiker en passant feststellten, dann nicht ausreichend begründet werden Russell bezieht sich in einem Beispiel auf eine Uhr, die stehengeblieben ist, aber zweimal am Tag die richtige Zeit anzeigt (Human Knowledge: Its Scope and Limits) 1948 und Alexis Meinong berichtet schon 1906 von der Halluzination einer geträumten Windharfe, die unbekannterweise wirklich an einem Baum hing.. der Wittgensteinianer Edmund Gettier ist später diesem Problem in einem bis heute kontrovers diskutierten Aufsatz dezidiert nachgegangen, um festzustellen, dass auch Gewissheiten fallibel eine Überzeugung rechtfertigen können, wenn sie etwa durch falsche Beobachtungen oder einfach mit Raten zustande kommen Gettier, Edmund L.: Is justified true belief knowledge? Analysis 23.6, Juni 1963..
die Geschichte der Wissenschaften bietet für die Vagheit von gerechtfertigtem Wissen einige kuriose Belege. so ermittelte Kepler aufgrund einer abstrusen astrologischen Analogie, dass der Mars zwei Monde besitzen müsse, insofern die Erde nur einen und der Jupiter vier hat, und lag damit richtig. Hegel beharrte gegen das Wissen seiner Zeit auf neun Planeten in unserem Sonnensystem und hat recht behalten, da nach der Degradierung des Pluto zum Asteroiden manche Astronomen wieder nach einem, noch unentdeckten Kandidaten suchen.
wo ein Wissen beansprucht wird, das sich universal an einem unendlichen Ganzen misst, sind nicht immer ausreichende Informationen für einen Sachverhalt zu bekommen und für ein konsistentes Weltbild unentwegt neue theoretische Modellierungen erforderlich. man könnte daraus schliessen, dass Wissen als wahre, gerechtfertigte Überzeugung selten vorliege. fatalerweise ist auch eine solche Erkenntnis nicht unfehlbar, da sie ebenso wenig eine Gewissheit darstellt der wissenschaftliche Anspruch von Wahrheit benötigt immer den Zweifel als Korrektiv, so dass gewonnene Erkenntnisse stets hinterfragbar bleiben..


hyperkomplexes schlussfolgern

die Logik war für die Griechen in der Antike im Gegensatz zu einer überredend-wollenden Rhetorik eine Instanz für das korrekte Argumentieren das ambivalente Verhältnis von Logik und Rhetorik war auch ein konfliktgeladenes und hat langfristig zu einer Logisierung der Rhetorik und zu einer Rhetorisierung der Logik geführt.. mit jenem Anspruch etablierten sie nachhaltig ein Schlussfolgern, das Verbindlichkeiten für alles und jeden einfordert, und mit Kant zunehmend transzendental verwendet zu einer allgemeinen Theorie des Denkens wurde. daran hat sich mit der Ablösung der Naturwissenschaften von philosophischen Grundsätzen wenig geändert, obwohl nach wie vor ungeklärt bleibt, ob ein logisches Operieren dem Menschen a priori gegeben ist oder lediglich ein Desiderat seines Sprachvermögens darstellt schon Rousseau fragte sich, ob die Menschen die Worte nötig ätten, um denken zu können, oder ob sie das Denken noch nötiger gehabt hätten, um die Kunst des Sprechens zu erfinden (Rousseau, Über den Ursprung der Sprachen, S. 153).
für naturwissenschaftliche Ansprüche hat sich ein logisch widerspruchsfreies Schliessen durchgesetzt, insofern es einen Konsens erbringt, der es erlaubt, unabhängig von Personen und örtlichen Gegebenheiten Wissen zu verallgemeinern. dabei ist die Logik eine interaktive Praxis für das Kommunizieren geblieben und spezialisiert eine sich weiterentwickelnde Strategie für Erkenntnisansprüche. die Reichweite verringert sich allerdings, wo man Sachverhalte komplexer analysiert und bei einer sinkenden Halbwertszeit von Theorien sich der Wissensstand relativiert wo ein zusammenhängendes Regelsystem relational komplexer Aussagen angestrebt wird, engt es den Rahmen von Konklusionen ein und kann zu Paradoxien führen..
logische Theoreme beanspruchen mittlerweile immer mehr Erweiterungen, die wie bei der intuitionistischen oder mehrwertigen Logik überlieferte Prinzipien und Operationen ignorieren oder extendieren. damit erhöht sich die Zahl von Wahrheitsfunktionen und Ausnahmebestimmungen, so dass Regeln des Schliessens offener designt werden. es lassen sich inzwischen mathematische Möglichkeitsräume konstruieren, die so komplex sind, dass sie nur Computerprogramme noch zu händeln vermögen. dies kann zu einer hohen Intransparenz führen so werden für mathematische Probleme Theorembeweise, die eine Software erstellt, nicht anerkannt, mithin sie sich einer Nachprüfung entziehen..


rekursiv definieren

der akademische Diskurs mag begriffliche Selbstbezüglichkeiten, um prägnant offen argumentieren zu können. für das wissenschaftliche Denken hingegen sollten Begriffe nicht selbstbezüglich definiert werden, damit sie nicht bereits das voraussetzen, was sie zu bestimmen haben. bei der Rekursion lässt es sich indes nicht vermeiden. wer den Begriff allgemein erklären will, behandelt ihn unweigerlich rekursiv das Erklären muss sich selber aufrufen und dabei konkretisieren.. wird es als Demonstration verstanden, hat man eine auf sich selbst angewandte Regel rekursiv veranschaulicht.
sinnfälliger wäre es, derartiges mit einem Beispiel wie der Schneeflocke zu versinnbildlichen. hier wird augenscheinlich deutlich, dass sich idem per idem das Prinzip einer Konstruktion selbst konstruiert. eine Software, die solches für den Computerbildschirm darstellt, muss eine Abbruchbedingung begrenzen. ansonsten hängt sie sich in einer Endlosschleife auf. dies gilt ebenso für Metatheorien, die wie der kritische Rationalismus eine alles inkludierende Allgemeingültigkeit beanspruchen, aber nur bedingt auf sich selbst, also rekursiv angewendet werden dürfen bei Metatheorien hat die Klasse der Falsifikationsmöglichkeiten leer zu sein, insofern schon das Bestehen einer Falsifikationsmöglichkeit die Idee der Falsifikation zum Provisorium degradiert..


unverbindliche differenz

intuitiv verfügt der Mensch über mehr Wissen, als er mit Gewissheit anzugeben vermag. doch was nützt es, wenn er es nicht ausreichend begründen kann. ein intuitives Wissen, dass jenseits möglicher Erfahrung eine vorliegende Wirklichkeit erfasst, gerät in Schwierigkeiten, wenn es sich erklären muss. so wie Augustinus nicht ad hoc klarzustellen vermochte, was die Zeit ist, fällt es schwer, etwas das primär auf Anschauungen beruht, evident zu begründen für Augustinus war die Zeit somit eine subjektive Anschauung der Seele..
das menschliche Abstraktionsvermögen kann kosmische Dimensionen erfassen, die sich nicht immer mit Anschauungen synchronisieren. vielleicht gelingt es deshalb selten, bildliche Evidenzen auf eine viable Verbindlichkeit festzulegen. sogar bei von einem Computerprogramm imitierten Mondrian-Komposition fällt dies schwer. auch hier werden ästhetische Erfahrungen initiiert, welche sich nicht allgemeingültig bestimmen lassen. die Unverbindlichkeit des Imaginierbaren trennt von dem Ausdrücksvermögen jeder generierbaren Abstraktion ein Spalt, der nicht mit Deutungen zu füllen ist. oder anders formuliert: die Möglichkeiten des Gestaltbaren können auf unerklärliche Weise Potentiale des Interpretierbaren übersteigen in seiner Schrift "Über die Seele" grenzt Aristoteles daher auch die Einbildung (phantasia) von der Wahrnehmung (aisthesis) und dem Denken (noein) ab (De an. 427 b 9-12..


wissen im rausch

wo Informationen auf einem Bildschirm von einem Rauschen unterdrückt, Gespräche durch ein Knacken gestört und Bilder zerpixelt werden, liegen Störungen vor. sie richten sich gegen eine festgelegte Funktionalität und können sie bis zur Unkenntlichkeit auflösen Störung werden entweder als Abweichung von technischen Parametern oder als Abweichungen von kommunikativen Erwartungen wahrgenommen.. solche Zerfallserscheinungen sind häufig das Ergebnis von interferenten oder entropischen Prozesse, die in digitalen Medien auch installierte Filter oder Impulskodierungen nicht zu bändigen vermögen. selbst bei mit Redundanzen arbeitenden Übertragungen kann es zu Abweichungen kommen, welche sich nur aufwendig oder gar nicht kompensieren lassen.
wird die Störung als Teil der Normalität angesehen, stellt sie einen Parameter dar, der hinzukommend eingreift und Erwartungen unterläuft. in einem chaotischen System, in dem alle möglichen Zustände Informationen wären, würden sich Stöhrungen der Wahrnehmung völlig entziehen. sie benötigen für ihre aisthesis als Pendant eine vorliegende semiosis von Ordnung, d.h. in komplexen Systemen immer etwas weniger als alles Mögliche. ein exponentielles Wachstum an Informationen kann partiell Wissen verrauschen und somit selbst als Störung angesehen werden die Zunahme von digital speicherbaren Information beeinflusst das Wissen dahingehend, dass es Wissen stärker differenziert und damit ebenso relativiert.. dabei lässt sich eine ausufernde Vielfalt immer schwerer auf die Einheit von grundlegender Ordnungen zurückzuführen.


erfinden statt finden

was heute als allgemeine Gewissheit gilt, kann morgen schon mit neuen Theorien, anderen empirischen Zugängen widerlegt werden. die Realität gibt im Grossen und Ganzen nicht vor, wie man über sie zu sprechen hat. das meinte jedenfalls Nietzsche, als er in seinem Aphorismenbuch "Jenseits von Gut und Böse" feststellte, dass Philosophen nichts finden, sondern vorwiegend erfinden "Jenseits von Gut und Böse", Kapitel 3, Erstes Hauptstück: Von den Vorurtheilen der Philosophen . konsequenterweise konnte für ihn Wissen nur noch ein Interpretieren sein auch die Sinneswahrnehmung, die unsere Existenz orientierend fundiert, wird für Nietzsche primär durch Interpretationen geleitet. . mit jener skeptische Haltung gab Nietzsche selbst das Argumentieren für eine radikale Orientierung auf und fabulierte stattdessen die Naturgeschichte als eine allzumenschliche Sinnsuche.


äpfel und birnen

man soll nicht Äpfel mit Birnen vergleichen. sie gehören in einem Obstladen verschiedenen Preiskategorien an und werden wie die Erkenntnisse von Geistes- und Naturwissenschaftlern in einer Alma Mater nach wie vor getrennt gewogen und ausgepreist.
doch wo zu ermittelnde Bezüge sich nicht an althergebrachte Redensarten halten und an sich unbestimmbar bleiben, ist ein Vergleichen unumgänglich. der Abgrenzung geht dann ein partielles Gleichsetzen voraus, was allseits ein allgemeines Relativieren erlaubt. hierbei wird deutlich, dass alles vorliegend Mögliche miteinander vergleichbar ist. einzig das von Philosophen veranschlagte absolut Vereinzelte, das völlig Alogische und in jeder Hinsicht Zufällige bei Hegel war es das reine Sein, das sich jeder Bestimmung entzieht., welches es für Naturwissenschaftler in einem Raum-Zeit-Kontinuum gar nicht geben kann, würde sich dem entziehen.


fokus der vagheit

ohne präzise Begriffe sind keine nachhaltig anschlussfähigen Theorien zu haben. doch kann es eine sprachliche Präzision für solche Theorien überhaupt geben? für Popper reichte es aus, dass ein Begriff nur so exakt vorliegen muss, wie es eine Problemsituation erfordere Karl R. Popper in seinem Exkurs über den Essentialismus (siehe: "Ausgangspunkte: meine intellektuelle Entwicklung").. allein der epistemischer Anspruch bestimmte für ihn, in welchem Umfang bei Definitionen Präzisierungen oder Erweiterungen nötig werden.
mittlerweile sind vage Begriffe in komplexen Theorien unumgänglich geworden. sie müssen nur für ihren Anwendungsbereich zurechtgeschliffen werden und besonders passgenau dort, wo sie bei speziellen Aufgaben in Laborwissenschaften zum Einsatz kommen. bei Plato waren Begriffe noch als Ideen an ewigseiende Wesenheiten gekoppelt und wurden derart lange Zeit als eherne Einheiten von Bestimmungen, Prinzipien oder Gegenstandsklassen benutzt die Scholastiker bemühten sich in diesem Sinne um eine strenge Disputationskunst. sie gingen davon aus, dass den allgemeinen Begriffen (Universalien) eine wahrhafte Wirklichkeit zukommt. .
für Hegel, der an das platonische ontos on anknüpfend Wahrheit als eine selbstreferenzielle Wirklichkeit begreift, enthielt die Bedeutung eines Begriffs zuweilen den gesamten Denkweg zu ihm hin und blieb dabei wie das wahre Ganze vieldeutig. derart komplex lassen sich philosphische Begriffe wie Knoten in einem Netzwerk verknüpfen, um in einem zu bedenkenden Möglichkeitsraum Fragen immer wieder neu zu stellen um zu neuen, weiterführenden Erkenntnissen zu kommen, muss man nach Ernst von Glasersfeld mit der komplexen Vagheit einer Sprache denken und davon ausgehen, dass jedes Raster, welches wie ein Netz über die erkennbare Realität geworfen wird, flexibel sich anzupassen vermag..
in positivistisch orientierten Wissenschaften kann solch ein Ansatz selten behauptet werden. wo die Halbwertszeit von Theorien sinkt, sind wissenschaftliche Heuristiken darauf angewiesen, sich ebenjener analytischen Mittel zu bedienen, von denen sie eigentlich eine Entlastung suchen. sie bleiben, wo sie eine universielle Genauigkeit suchen, an die Vagheit der Sprache und die Vieldeutigkeit von stochastischen Modellen gebunden, so dass Wahrheiten zunehmend zukünftig zu etablierende werden.


signifikante exempel

kein Lehrbuch der elementaren Logik kann auf den sterblichen Sokrates oder das Referenz-Double Abend- und Morgenstern verzichten. das Exemplarische ist ein Probierstein des Denkens und gemeinhin ein rhetorischer Imperativ für die Urteilskraft. wo es schlagkräftig zu überzeugen gilt, wird sogar ein Beispiel zum Kriterium der Wahrheit. es hat dann abstrakte Gedanken nicht nur zu illustrieren, sondern muss als Exempel wie bei Gilbert Ryle für eine Analyse des Geistigen definitiv Begrifflichkeiten untermauern Gilbert Ryle argumentiert in "The Concept of Mind" virtuos mit Beispielen gegen Kategorienfehler, ohne dafür eine formale Definition vorzulegen..
was in den Naturwissenschaften das empirische Ergebnis eines sinnfälligen Experiments übernimmt, leistetin den Geisteswissenschaften ein plausibel statuiertes Exempel. es wird für eine These oder wie bei den Gettier-Fällen Gettier zeigte mit simplen Beispielen aus dem Alltagsleben, wie die gerechtfertigte wahre Meinung auch durch einen Schluss aus falschen Prämissen zustande kommen kann. gegen die klassische Wissensdefinition konträr eingesetzt. da sich bei einer hermeneutischen Analyse Beweise nicht wie in der Mathematik entwickeln lassen, werden signifikante Exempel statuiert, um Wahrheitsfindungen zu untermauern. ohne sie würden manche Begriffe ihren Kontext verlieren und Theorien gegenstandslos bleiben. es darf freilich nicht vergessen werden, dass Beispiele nur unzuverlässige Argumente darstellen. sie können keine objektive Allgemeingültigkeit beanspruchen und wenig beweisen. indem sie lediglich für etwas Bestimmtes eine Vorstellung ermöglichen, bleiben sie vage Behauptungen für das Universelle.


praxis versus poesie

ein dualistische Verständnis von Theorie und Praxis verführt schnell zu einseitigen Präferenzen. entweder wird eine praktische Überprüfbarkeit von Wissen oder die vorhergehende Reflexion favorisiert. Puristen der einen wie der anderen Seite begründen ihre Position allerdings praxisfern. denn Theorien wie die Newtonsche Mechanik oder die Wärmelehre wurden nicht aufgrund der zur Verfügung stehenden Fakten entworfen und gleichfalls wurde nicht erst Datenmaterial in Laboren gesammelt, wenn dafür ein heuristischer Anlass vorlag.
jedem Laborieren und Herumtüfteln gehen meist Überlegungen voraus, die auf Verallgemeinerungen zielen dass sich Tatsachen ohne theoretisch fundierte Beschreibungssysteme nicht ermitteln lassen, hat immer wieder zu Krisen des Empirismus, des Induktionismus und Positivismus geführt. , und es gibt kaum wissenschaftliche Konzepte, die ohne praktische Erfahrungen auskommen. nicht einmal die Mathematik erlaubt derartiges, weil sie ein händelbares Zahlenverständnis vor jeder Regelbegründung voraussetzt. das einseitig tendenziöse Privilegieren der Praxis gegenüber der Theorie oder umgekehrt ist vermeidbar, wenn man das Theoretisieren per se als Aktivität von transzendenter Lebensbesinnung versteht. d.h. als einen Akt, der sich in der Weise einer téchne als Poesie die Poesie ist immerhin ein fundamentales Alphabet des menschlichen Denkens und kann als zuverlässiges Instrument zur Aufdeckung von unbestimmbaren Gründen erweisen. ereignet.


exklusives philosophieren

das philosophische Denken verliert immer mehr die Verbindung zum wissenschaftlichen Fortschritt. während es bei Aristoteles noch selbst Wissenschaft war und im Mittelalter sogar Königin der Wissenschaften, ist heute ein Erkenntnisstreben um seiner selbst willen entthront. seitdem Wissen an technologischen Erfolgen gemessen und durch Apparate in Laboren geprägt wird, hat die Philosophie als übergeordnetes Ressort abgedankt. sie kann mit ihren Denkansätzen den Wissenschaftsprozess weniger beeinflussen und mit ihren Verallgemeinerungen kaum noch als Ganzes reflektieren eine allgemein erklärende Erkenntnistheorie stösst zunehmend an Grenzen, wenn sie fachübergreifend die Voraussetzungen und das Zustandekommen von Erkenntnissen zu thematisieren versucht..
wenn wissenschaftliche Ansprüche sich ausspezialisieren und in immer neueren Disziplinen Erkenntnisbereiche erfassen, werden Experten rar, die enzyklopädische Kompetenzen ausbilden und fachübergreifend durchzusetzen vermögen. Gaston Bachelard, der eine solche Forcierung bereits im vergangenen Jahrhundert voraussah, warnte daher, dass irgendwann jedes wissenschaftliche Problem, jedes Experiment, ja sogar jede Gleichung einer eigenen Philosophie bedarf Gaston Bachelard in "Die Bildung des wissenschaftlichen Geistes", 1938.


gefangen im konsens

in wissenschaftlichen Diskursen werden Erkenntnisprozesse nachvollziehbar kommuniziert. im Normalfall tauschen Koryphäen einer Denkschule Informationen und Überzeugungen unmissverständlich aus das Ziel wissenschaftlichen Arbeitens ist nach wie vor die systematische und nachvollziehbare Darstellung von Erkenntnissen.. erst unvereinbare Unstimmigkeiten führen dazu, dass über das Verhältnis zwischen dem, was jemand darlegen will, und dem, was ein anderer versteht, so lange dis- oder rekursiv verhandelt wird, bis sich kohärent ein Konsens einstellt.
kommt er nicht zustande, ist der Austausch meist von zu verschiedenen Kompetenzen und Interessenlagen bestimmt. darüber kann man sich ausgiebig auf Symposien und in internen Fachzirkeln verständigen. und auch hier gilt, dass wo Wahrheitsansprüche erhoben werden, sich nur nachvollziehbar kommunizieren lässt, was im Grossen und Ganzen mit einem Konsens vermittelbar ist.


artifizielle independenz

eine künstliche Intelligenz operiert diskret auf der Basis rationaler Kriterien und kann sich bestens mit anderen digitalen Systemen vernetzen. erst für die Kommunikation mit uns Menschen benötigt sie ein Interface, das symbolische Sprachelemente in konkrete Mitteilungen übersetzt. darauf sind ebenso Softwareentwickler angewiesen, da sie bei einer steigenden Komplexität von Operationen einem floatierenden Code im Detail nicht mehr zu folgen vermögen ein nur aus Binärzeichen bestehender Code ist die einzige Sprache, die ein Computer, aber bei komplexen Programmen immer seltener ein Mensch verstehen kann..
optimieren sich bei steigender Komplexität Software-Systeme abgekoppelt von einer menschlichen Obhut, operieren sie selbstbezüglicher auf einer virtuellen Ebene da ihnen bei virtuellen Operationen der Sinn für ihr Handeln fehlt, können sie bedenkenlos Komplexitäten generieren. . irgendwann haben sie bei sich potenzierenden Verarbeitungs- und Speicherkapazitäten auch ein komplementäres Vermögen für doppelsinnige Sprachanalogien, das intuitive Problemlösen und vielleicht sogar eine moralische Empathie entwickelt. sollte es wirklich einmal so weit kommen, dann sind intelligente Algorithmen immer noch nicht in der Lage, eine Vorstellung ausserhalb ihres Paradigmas zu abstrahieren. ihre Möglichkeiten bleiben an die Notwendigkeiten des rationalen Operierens gebunden und somit können sie nicht wie der Mensch im Denken eine abstrakte Vorstellung für ein Ganzes entwickeln. es bleibt einer artifiziellen Intelligenz vielleicht für immer erspart, ein sich jeder Ordnung entziehendes, da vorausgehendes Eines kalkulieren zu müssen der Mensch kann sich einer rationalen Komplexität bloss begrenzt anpassen, allerdings komplexen Phänome sehr gut intuitiv erfassen..


ungewissheit des universalen

kann es Wissen ohne ein menschliches Bewusstsein geben? es müsste wohl ein Wissen sein, das auf allgemeingültigen Anschauungsformen bzw. universellen Intentionen beruht und auch für eine extraterrestrische Intelligenz zu verstehen wäre. als die NASA erstmals in Kupfer gestochene Informationen über die Erde mit einer Sonde in den Weltraum schickte eine Plakette in der Sonde Pioneer 10 zeigt in der oberen Ecke ein Wasserstoffmolekül, darunter die Postion der Erde im Weltall und daneben zwei nackte Menschen mit Grössenangaben., gingen Wissenschaftler noch davon aus, dass jede Intelligenz sich auf Naturgesetze beziehen kann, die überall mit denselben strukturellen Relationen erfasst werden.
inzwischen sieht man Regularien der Natur skeptischer und erwartet nicht mehr, dass menschliche Verallgemeinerungen für eine fremde Intelligenz per se nachvollziehbar sind. Wissen ist an Sinnfragen und einen konkreten Lebensvollzug gebunden. als Vermögen sich etwas repräsentativ anzueignen, charakterisiert es mehr einen kognitiven Phänotyp als die ihn umgebende Realität und es ist deshalb unwahrscheinlich, dass ausserirdische Bewusstseinsformen auf dieselbe Weise wie der Mensch eine Wirklichkeit erfassen. sie werden wahrnehmbare Determinationen in einem kognitiven Eigensystem modellieren, das aus ihrer Sicht universell ist und nicht unseren Anschauungen entsprechen muss. vielleicht haben sie sogar völlig andere Vorstellungen von Raum und Zeit, so dass sie gar nicht in einem gleichen Universum existieren Auffassungen über Raum und Zeit haben sich auch bei uns Menschen mit religiösen und wissenschaftlichen Weltbildern immer wieder gewandelt und es ist davon auszugehen, dass dies in der Zukunft weiterhin der Fall sein wird. .


einsamkeit im denken

für Kant war eine subjektive Selbstreflexion konstitutiv für das Denken, da erst ein alle Vorstellungen begleitendes Ich es ermögliche, mentale Akte zu bündeln. seine primär auf Erkenntnisgewinn ausgerichtet Subjekt-Auffassung ignorierte dabei das Begreifen von inneren Erfahrungen und damit den Einfluss von Gefühlszuständen, von Wünschen und Absichten auf mentale Prozesse.
wahrscheinlich hat Kant jenen Bereich absichtlich ausgeblendet, weil ihm klar war, dass im Unterschied zur wahrgenommen Aussenwelt immanent vorliegende Empfindungen kein begriffenes Wissen darstellen bei Kant begreift der Verstand nicht einzelne Empfindungen, er deduziert nur abstrakt ihr Bestehen. . als inhärente Verfassungen können sie nicht wie wahrgenomme Objekte intentional im Denken repräsentiert, bloss sui generis analysiert werden. wer emotional sein Denken introspektiv zu bedenken versucht, muss es akzeptieren, sich selbst ein Fremder, ein einsamer Intimissimus in einem unfokussierbaren Horizont zu sein doch je mehr der Mensch erkennt, desto mehr wird er auch sich selbst erkennen. wäre es nicht der Fall, würden Erkenntnisse irgendwann ein unmenschliches Wissen werden..


glauben im wissen

der Mensch strebt nicht nur nach Wissen, sondern ebenso nach Gewissheit. und dies sogar dann, wenn es kein sicheres Wissen, sondern nur einen Glauben geben kann. eigentlich würde es ausreichen, wenn Erkenntnisse sich nicht zweifelsfrei begründen lässen, lediglich eine Meinung zu haben. wo für universelle Relationen nicht sämtliche Implikationen eruierbar sind, bleiben sie ein zweifelhaftes Erkennen, an dessen Geltung geglaubt werden muss. ein solcher Glaube ist die Hoffnung, dass dem Verstehbaren trotz mangelnder Überprüfbarkeit eine unbedingte Geltung zukomme. aber wo es primär um das Unbedingte, also um das Absolute geht, beginnt das Insistieren der Religion.
das rationale Denken kann nicht auf den Glauben an eine unbedingte Einheit im Denken verzichten, jene Unbedingheit muss als Anspruch immer wieder behauptet werden das absolute Wissen als die höchste Stufe bildet bei Hegel erst den Rahmen für die Beantwortung der Frage nach der höchsten Erkenntnis.. würden Theorien sich nur auf konkret Vorliegendes beziehen, bliebe kein Raum mehr für Abstraktionen, die über das Faktische hinausgehen.


vakante superposition

warum darf in einem Gedankenexperiment von Erwin Schrödinger eine Katze eine leibhaftige Superposition einnehmen Schrödinger inthronisiert derart eine fiktive Katze zu einer unkalkulierbaren Lebensform, um ein Problem der Quantentheorie zu verdeutlichen.? obgleich sie sich im Gegensatz zum Menschen in den eigenen Schwanz beissen kann, wird es ihr immer an der Fähigkeit mangeln, ihr Dasein in ein kosmologisches Weltbild zu transzendieren. über eine solche Fähigkeit verfügt bislang einzig der Mensch. erst er schafft es dank seiner intelligiblen Anschauung, die Wirklichkeit mit all ihren Mannigfaltigkeiten als eine Einheit zu begreifen. sogar eine Welt quantenmechanischer Wahrscheinlichkeiten vermag er wie ein Gott zusammenzuhalten, seitdem es der Quantenphysik gelingt, flukturierende Wechselwirkungen in eine überschaubare Kohärenzu zu bringen und so ist auch Schrödingers Messapparat ein isoliertes System, ein System ohne starke Wechselwirkungen mit seiner Umgebung, was allerdings einer Situation entspricht, die es tatsächlich nicht gibt..


kontinuum des geistes

können Tiere denken? vermutlich besitzen alle Säugetiere und zahlreiche Vogelarten ein intentionales Bewusstsein, das dem menschlichen ähnelt bis ins 17. Jahrhundert hinein galten Tiere noch als eine Sache. Descartes sprach ihnen sogar jegliches Gefühlsleben ab.. Insekten wie Bienen oder Ameisen, die über ein sehr kleines Gehirn verfügen, vollbringen als Individuen in einem komplex organisierten Staat sehr effizient intelligente Leistungen, und ohne Nervensystem können Einzeller seit Millionen von Jahren unter verschiedenen Bedingungen gut angepasst überleben.
die Natur durchzieht wohl ein Kontinuum des Geistes, der sich mit der Evolution als intelligentes Verhalten vielfältig und unabhängig voneinander verwirklicht hat. zur Transzendenz befähigt stellt der Mensch allein eine bedingte Variante von diesem Vermögen dar. seitdem er zu seiner Umwelt sich mit einem abstrakt universellen Wissen distanziert positioniert hat, ist seine Intelligenz dazu verdammt, über ein Diesseits der eigenen Lebenswirklichkeit unentwegt weltoffen zu agieren.


anschauung als apriorie

braucht das Denken die Anschauung eines koordinierbaren Raumes? da sich gewohntermassen die Aussenwelt nur derart in der Wahrnehmung darstellt und erkennen lässt, muss die Frage wohl bejaht werden. ohne eine Einordnung müssten Vorstellungen von der Wirklichkeit und Begriffe über sie ins Leere laufen. es reicht nicht aus, das Gegebene als eine topografische Ordnung strukturell zu relationieren, nur mit Zahlenverhältnisse zu erfassen in der modernen Mathematik werden Räume derart als abstrakte Strukturen behandelt, die mit unterschiedlichen Konzepten der Dimension begrifflich definiert, aber nicht vollständig durch Axiome fundiert werden..
für Kant waren Raum und Zeit apriorische Formungen, welche nicht den äusseren Erscheinungen zu Grunde liegen und in ihrer Spezifik nur eine Eigenheit der menschlichen Kognition darstellen. demnach lässt sich die bewährte Dreidimensionalität unseres Anschauungsraumes nicht damit begründen, dass die physische Welt selbst über eine dimensionale Struktur verfügt. es ist eher davon auszugehen, dass die Wirklichkeit nur räumlich erscheint und nicht von einem tatsächlich vorliegenden Koordinatenkreuz geordnet wird. das vom Menschen erzeugte Bezugssystem ist ein mutables Konstrukt, welches als euklidische Geometrie, topologisch Ordnung oder hyperbolische Mannigfaltigkeit eine geordnete Anschauung schaffen kann.
bei manchen Tieren garantiert bereits eine zweidimensionale Verortung die präzise Orientierung, und es wäre vorstellbar, sogar eindimensional das Umgreifende, wie bei einer Turingmaschine als linear durchlaufende Datenspur zu erfassen. das sich mit seinen Sinnesorganen und dem Hirn evolutionär entwickelte Wahrnehmungsvermögen hat spezifische Raumvorstellungen für das Überleben von Organismen herausgebildet. nur der Mensch ist nicht daran gebunden. sein Wahrnehmungsapparat kann gedanklich die biologische Disposition übersteigen, so dass dann zum Beispiel ein angeborenes anisotropes Raummass, das Tiefen weiter entfernt zeigt, leicht korrigierbar ist ein lediglich widerspiegelndes Erfassen der Umwelt wäre immerhin eine auf Sinnesdaten recht begrenzte Wahrnehmung..
mit dem Vermögen körperliche Verhältnisse zu abstrahieren lassen sich Anschauungen erweitern und mit mathematischen Modellen sogar bis ins Unendliche hyperdimensional kalkulieren wird die Orientierung als eine Wechselwirkung mit Qualitätsänderungen verstanden, können eingehende Daten dahingehenden modelliert werden, dass sie eine Anpassung durch Lernprozesse darstellen, die effizient sich eigene Anschauungsräume konstruieren.. so werden nicht nur Wahrnehmungsverzerrungen ausgeglichen und Erfahrungshorizonte modellhaft auf kosmologische Grössen erweitert, sondern der Anschauungsraum generell mit rein topografischen Verhältnissen relativiert. vielleicht werden räumliche und zeitliche Vorstellung irgendwann durch explizit topologische Abstraktionen ersetzt und somit nicht mehr der Ausgangspunkt für kognitive Prozesse sein.


künstliche wirklichkeiten

was natürlich ist, kann in einem Garten nicht künstlich sein. es ist etwas urwillig Gewordenes und nichts Gemachtes. im Gegensatz dazu liegt das, was gehegt und gepflegt wird, in einer gewollten Wuchsform absichtsvoll vor. dafür werden Pflanzen gezüchtet oder ihr Erbgut genetisch so verändert, dass ausgewählte Potentiale in Biotopen stärker zum Zuge kommen. dies gilt ebenso für die Experimentalwissenschaften, wenn in Laboren zu untersuchende Phänomene aufwendig selektiert werden.
diffizile Zusammenhänge lassen sich bei physikalischen Prozessen erst erkennen, wenn eine wild wuchernde Komplexität überschaubar, d.h. reduziert vorliegt. umso exakter Wissenschaftler dann operieren, desto weniger haben sie es fallweise mit einer natürlichen Wirklichkeit zu tun. für Versuche in Hightech-Laboren, Blasenkammern und Teilchenbeschleunigern müssen gegenwärtig Bedingungen geschaffen werden, die als Normalität äusserst selten oder überhaupt nicht vorkommen der Wissenschaftstheoretiker Ian Hacking meinte, dass Forscher manche Effekte im Experiment erst erzeugen. dennoch bleiben für ihn auch solche Untersuchungsobjekte reale Entitäten, insofern es sich um kausale Agenten handelt.. das technologische Potenzial bestimmt dann, was konkret epistemisch zu rechtfertigen ist, und das epistemische Potenzial, was technologisch relevant sein kann die Unterscheidung zwischen Natürlichkeit und Künstlichkeit wird somit irrelevanter und mehr eine phänomenologische Beschreibungsweise..
Giambatista Vico hatte schon vor 300 Jahren erkannt, dass Menschen nur das verstehen, was sie selbst hervorgebracht haben in seiner "Scienza Nuova" stellt Vico der scholastischen Auffassung: "Verum est ens – das Sein ist die Wahrheit" ein "Verum quia factum" entgegen.. damit stellte er nicht nur die antike Überzeugung in Frage, dass jede techne auf eine episteme, also alles Handlungswissen auf ein kontemplatives Wissen beruhe, vielmehr zeichnete er unter dem Handlungswissen, das produzierende als das aus, welches erst zu Einsichten führt.


technik als prüfstein

die Technik ist zum Prüfstein des Wissens geworden und, wo sie erfolgreich Theorien in eine praktische Anwendung transformieren, auch das Zertifikat für wissenschaftliches Know-how. denn gekoppelt an eine apparative Rationalisierung werden technologische Erfindungen zunehmend zu einer Sinnstiftung der Forschung. sie entscheiden in Laboren nicht nur über die Berechtigung einer Theorie, sie verkörpern sie mitunter geradezu schon Gaston Bachelard meinte, dass technische Instrumente tatsächlich die Verkörperungen von Theorien sind, die sie überprüfen..
in einer kontingenten Umwelt haben sich Technologien als basaler Mechanismus der Kontrolle bewährt. wo sie physikalische Prozesse in kausal fixierten Abläufe halten oder wie beim Licht vorgeben, ob es als Strahl, Welle oder gebündelter Quantenzustand fungiert, binden sie wirksam zukünftige Erwartungen der moderne Mensch hat sich mit Technologien eine Wirklichkeit erschaffen, die er nur noch mit Technologien begreift.. selbst Misserfolge führen nicht stante pede zu Neuorientierungen, eher zum optimierten Ausbau von technischen Systemen und irgendwann vielleicht zu einer ganzheitlichen Technospäre.
für Arnold Gehlen war der Mensch als Mängelwesen dazu verdammt, sich mit der Technik entsprechend seinen steigenden Bedürfnissen die Umwelt zu gestalten. da dies nicht unproblematisch geschieht, muss man wohl ebenso wie der Soziologe Helmut Schelsky argwöhnen, dass Technik nicht eine notwendige Mängelkompensation sei, sondern als eine Überschussleistung letztendlich mehr Probleme schafft als löst eine komplex raumgreifend sich entwickelnde Technik führt zur Entstehung eines globalen Metasystems, das sich in Konkurrenz zu Bio- und Geosphäre herausbildet..


grenzen der arithmetik

unter den Wissenschaften ist zuerst die Physik dazu übergegangen, die Mathematik als Grundlage für ihrer Theorien zu nutzen so wurden bereits die axiomatischen Ansätze der Mathematik zum Vorbild für die axiomatische Formulierung der klassischen Mechanik.. wo Phänomene der Natur sich als Regelmässigkeiten ermessen lassen, konkretisieren sich Strukturaffinitäten als algebraische Relationen. allerdings haben Übereinstimmungen nicht ihren Grund in berechenbaren Naturgesetzen, denen Teilchen gehorchen, sondern vielmehr darin, dass sich experimentelle Bedingungen, mit denen physikalische Prozesse quantifiziert werden, für das menschliche Erkennen bestens modellieren lassen.
Zählen setzt ein Beobachten und das Beobachten einen Beobachter voraus. die Realität ist nicht von sich aus gemäss der Abzählbarkeit ihrer Objekte geordnet und lässt sich nicht immer quantitativ erfassen. jede Berechnung ist nur so gut und brauchbar, wie sie formelhaft die Verhältnisse der Natur berücksichtigen und darstellen kann. wo Algorithmen nichtlineare und chaotische Komplexitäten zu kalkulieren haben, können, wie bereits beim Bahnverlauf von drei annähernd grossen Körper, mit elementaren Funktionen Prozesse nicht ausreichend kalkuliert werden das Zweikörperproblem ist durch die Keplerschen Gesetze lösbar, während die Integrale ab drei Himmelskörpern keine algebraischen Lösungen mehr ergeben. es scheint unmöglich, ein vierdimensionales Vektorenkonglomerat numerisch zu erfassen..
es besteht kein Zweifel daran, dass die Natur weitgehend symbolisch und auf diese Weise mathematisch beschreibbar ist. die Mathematik ist eine kompakte Sprache, mit der sich wissenschaftliche Modelle formulieren und auf eine logische Konsistenz hin überprüfen lassen. ohne eine physikalische Realität schafft sie mit ihren Strukturen kalkulierbare Möglichkeitsräume, um Hypothesen zu verfeinern und um darüber hinaus Vorstellungen wie die des Unendlichen und des Irrationalen denkbar zu machen das mathematische Kontinuum war bereits in der griechische Antike ein detailliert ausformuliertes Thema für den philosophischen Diskurs.. es ist ungewiss, ob die Mathematik nur ein Handwerkszeug des Physikers ist, mit dessen Hilfe sich das Universum beschreiben lässt, oder ob die Realität selbst eine arithmetische Struktur darstellt und somit vielleicht Physik und Mathematik am Ende eins sind oder es einmal werden?


nach der wissenschaft

was wird es nach der Wissenschaft geben? da die Wissensproduktion als soziale Praxis Weiterentwicklungen unterliegt, muss konsequenterweise irgendwann eine qualitativ neue Form für das Streben nach Erkenntnissen erreicht werden. das wissenschaftliche Denken hatte mit welterklärenden Mythen seine Vorläufer und wird für den positivistisch rationalen Ansatz der heutigen Wissenschaft wohl ebenso Nachfolger haben.
es ist absehbar, dass zukünftige Erfolge bei der Genese von Begründungszusammenhängen vorrangig mit technologischen Innovationen und besonders mit den Potentialen einer künstliche Intelligenz erreicht werden KI-Technologien können nicht nur menschliche Routineleistungen nachbilden, sondern bereits autonom Datenlagen analysieren und werden immer mehr in heuristische Aufgaben eingebunden.. bereits jetzt sind ohne Hightech-Apparate, mediale Veranschaulichungen und digital sich steuernden Datenverarbeitung kaum noch massgebliche Entdeckungen möglich. in naher Zukunft organisieren bestimmt intelligente Algorithmen als strukturelle Mannigfaltigkeiten die Wissensproduktion und erfassen dann für den Menschen in schwer überschaubaren topografischen Räumen Kausalordnungen in einer hyperdimensionalen Topografie kann der Mensch Strukturzusammenhänge nur bedingt als eine faktische Gegebenheit wahrnehmen, da sie seine Imaginationskraft schnell überfordern.. vielleicht wird es einmal unvorstellbar sein, dass ein technologischer Fortschritt an die Beschränkung einer anthropologischen Vorstellung gekoppelt war.


vagheit des logischen

das Dogma des logischen Denkens ist das Prinzip der Widerspruchsfreiheit. lange verband die klassische Logik jene Forderung mit der ontologischen Binarität von Sein oder Nichtsein, so dass etwas nicht zugleich als wahr und falsch vorliegen konnte. inzwischen reicht ein solcher Bezug nicht mehr aus, wo ein Schlussfolgern komplexe bzw. detaillierte Sachverhalte umfasst und mit jenem Dualismus gehäufter Inkonsistenzen Hempels Paradoxon oder die Cantorsche Antinomie zeigten bereits im letzten Jahrhundert solche Probleme auf akzeptieren muss.
um dem zu entgehen, nutzen erweiterte Logiksysteme seit Frege den logistischen Freiraum der Mathematik und quantifizieren Argumente sowie Schlussfolgerungen mit Kalkülen solche Ansätze fanden ihr Fundament bereits im spätmittelalterlichen Nominalismus bei William von Occam.. ohne ontologischen Bezug darf man hier gegen den Satz vom ausgeschlossenen Dritten verstossen oder einfach mit intentionalen Aspekten der Alltagssprache operieren. die Fuzzy-Logik ermöglicht es, auch mit statistischen Berechnungen die Vagheit eines Möglichkeitsraumes zu verifizieren. Unschärfen werden dabei wie bei einer Wetterprognose mehr oder weniger präzis als graduelle Wahrscheinlichkeiten erfasst, so dass sie sich diskret berechnen lassen.
bei Peirce wurde das logische Operieren selbst das Dritte. dafür führte er, in Analogie zu seinem triadischen Zeichenmodell, die logischen Terme des absoluten, des einfachen und des konjugativen Relativen ein. der ontologische Status des Relativen wird zu einem informellen Sein, das sich rein aus strukturellen Beziehungen ergibt ein sich daraus ergebendes Informiert-Sein beansprucht als eine konkrete Wirklichkeit ebenso einen ontologischen Status.. mit diesem Ansatz konnten kybernetische Modelle die ontologische Binarität von Sein und Nichtsein in immer komplexere Verhältnisse aufspalten und multilateral relativieren Gotthard Günther zeigt, dass eine Polykontextualität mehrere Bezugsrahmen behandeln kann, ohne dass eine Selbstreferenz in logischen Zirkeln strandet ( A New Approach to The Logical Theory of Living Systems, Chicago 1972)..
technologische Innovationen profitieren inzwischen im Bereich der künstlichen Intelligenz ungemein von einer solchen Weiterentwicklung. aber ebenso die Naturwissenschaften, da sie sich weniger an einem ontologisch fundierten Wahrheitsbegriff gebunden fühlen. sie können selbstbezüglich Modelle entwickeln und mit ihnen Phänomene als poietische Prozesse beschreiben. das Schlussfolgern ist mit der Öffnung zum Strukturellen ein komplex vages Unterfangen geworden und mitunter nur mit grossen Rechenkapazitäten operational zu bewältigen.


universell ohne horizont

mit Abstraktionen und formalen Verallgemeinerungen versucht das wissenschaftliche Denken zu einem universellen Wissen zu kommen. nur kann es einen Sachverstand des Universellen überhaupt für den Menschen geben? ein Gesamtzusammenhang, der physikalische Prozesse als Raum- und Zeitrelationen determiniert, wäre wohl einzig für einem Laplaceschen Dämon vollständig determiniert. eine endliche Intelligenz muss sich damit begnügen, Wechselwirkungen der Natur als rationale Zusammenhänge stufenweise aufzudecken. dabei ist ein derartiger Anspruch ebenso ein bodenloses Ansinnen, denn zum einen sind die Naturwissenschaften, wie es provokant Heidegger reklamierte, nicht gewillt oder in der Lage, ihr Wissensgebiet grundlegend zu definieren Heideggers Einwurf, dass die Wissenschaft nicht denken kann, war weniger ein Vorwurf als vielmehr eine hinterfragte Anspruchshaltung. (Was heisst denken? 4. Aufl. Tübingen: Niemeyer 1984, S. 4)., und zum anderen ist auch kein absehbares Niveau zu erwarten, das sie zu einer abschliessenden Kohärenz mit einem dementsprechend komplexen Rahmen kommen lässt.
solange es etwas zu deuten gibt, solange das Wesen der Dinge und ihre Erscheinungsformen nicht unmittelbar zusammenfallen, muss es wohl akzeptiert werden, dass fortwährend komplexere Probleme, weitere Formen des Nichtwissens und paradigmatische Krisen evoziert werden nach Marx wäre alle Wissenschaft überflüssig, wenn das Wesen der Dinge und ihre Erscheinungsformen unmittelbar zusammenfallen (Kapital III, MEW 25, 825.).


wissen prognostizieren

Kant hat drei Arten des Fürwahrhaltens unterschieden: den Glauben, das Meinen und das Wissen. seitdem in den Naturwissenschaften heuristische Strategien verstärkt an Erwartungen auf zukünftige Entdeckungen und vor allem an ein technisches Know-how gekoppelt werden, müsste das Prognostizieren als vierter Modus hinzugefügt werden. wo allgemeingültige Wahrheiten nicht mehr zeitunabhängig und ohne Unwägbarkeiten, d.h. bei technologischen Erfindungen nicht ohne Risiken zu haben sind, bleibt das Wissen um rein faktische Wechselbeziehungen unzureichend. jener Herausforderung kann wohl erst ein epistemisches Prognostizieren gewachsen sein, das in und mit einem künftigen Entwicklungsstand operiert bislang werden dafür Prognosen erstellt, die als mathematische Wahrscheinlichkeit entweder kalkulierbar sind oder nur auf Ahnungen beruhen..
in einer Zeit des permanenten wissenschaftlichen Fortschritts, wird wie an der Börse auf Entwicklungspotentiale, auf die künftige Geltung von Wissen spekuliert. eine derartige Prätention orientiert sich weniger am tatsächlich Vorliegenden als vielmehr an einem zu erwartenden Zuwachs an Erkenntnissen für die Forschung ergibt sich somit ein Perspektivenwechsel, der weniger von Voraussetzungen als vielmehr von vorstellbaren Ergebnissen geprägt wird.. für solche Orientierungen sind nicht nur ständig höhere Bemühungen zu investieren, es ist auch ein Kredit zu zahlen, der zu einer hohen Verschuldung führen kann, insofern mit jeder Antwort sich neue Fragen ergeben und nachhaltig Unwägbarkeiten vor allem bei technischen Forcierungen zu erwarten sind.


kausale simplifikationen

die Technik ist für Kausalitäten ein ideales Medium. bereits mit wenig Aufwand gelingt es, in geregelten Kreisläufen natürliche Effekte separiert zu optimieren und damit zielorientiert zu nutzen. eine solche Konsolidierung garantiert stabile Abläufe mit konstanten Energieverteilungen, kann aber zu einem Korsett werden, wo Maschinen prozesshaft in einem spezifischen Setting operieren und bei steigenden Optimierungen Abläufe immer aufwendiger zu isolieren sind derartige Optimierungen müssen, um Bestand zu haben, regelmässig gewartet werden oder sich automatisch regulieren..
für technische Optimierungen gibt es in der Natur selten adäquate Vorlagen. der Mensch schafft dafür erst die nötigen Bedingungen und seine Leistung besteht nicht darin, stabile Ursache-Wirkungs-Beziehungen entdeckt zu haben, sondern in der Lage zu sein, die Voraussetzungen ihres Zustandekommens zu reproduzieren. dafür können Handlungsspielräume nur ausgebaut werden, wenn es gelingt, Effekte nachhaltig einzubinden und von unerwünschten Einflüssen fernzuhalten.
für Luhmann waren technische Artefakte kausale Simplifikationen, welche nur für bestimmte Ereignisse Zukunftsbindungen erlauben Technik konstruiert für Luhmann eine kausale Simplifikation für einen Erwartungszusammenhang, der sich auf eindeutig funktionierende Ursache-Wirkungs-Beziehungen beschränkt. und somit ein reduziertes Wissen verkörpern, das bei wechselnden Ansprüchen auf fortwährende Innovationen angewiesen bleibt. ein solches Defizit ist auch bei Entwicklungen der künstlichen Intelligenz zu konstatieren, insofern sich hier komplexe Prozesse auf festgelegte Anwendungen forcieren. obwohl inzwischen grosse Erfolge beim Schach bzw. Go-Spiel und in der Datenverwaltung erzielt werden, gibt es bisher keine eigenständige Weiterentwicklung als autonome Reproduktionen im Sinne einer Koevolution müssen sich kausale Beziehungen als Manipulation allzu optimiert profilieren, sind im Sinne einer Koevolution keine Selektionsprozesse möglich.. die Potentiale der künstlichen Intelligenz bleiben an menschliche Erwartungshaltungen gebunden und damit eine Hybrid von Kulturleistungen.


inkonsistente gesamtheit

das Wirkliche der Wirklichkeit muss mehr als die Gesamtheit aller Tatsachen sein. der Mensch will es so, um das Ganze von realen Zusammenhängen als eine Wahrheit hypostasieren zu können. obwohl sich komplex Gegebenes nur als Vielfalt und nie allumfassend konsistent denken lässt, wird grundsätzlich vorausgesetzt, dass auf einer Metaebene, in einem noch nicht erfassbaren Gefüge von Relationen eine allesumfassende Kohärenz frei von Widersprüchen vorliegt was als Ausschnitt widersprüchlich erscheint, soll dem holistischen Verständnis in einem umfassenderen Verbund stringent zusammenpasen..
für Nikolaus Cusanus war in seiner Lehre von der coincidentia oppositorum jede Welterfassung eine perspektivische und keine abschliessende, da sich unter verschiedenen Blickwinkeln gleiche Dinge unterschiedlich darstellen. erst eine letzte Wahrheit, welche für ihn nur eine göttlich absolute sein konnte, würde alle Differenzen aufheben eine letzte Wahrheit muss über Perspektivität und den mit ihr verbundenen Gegensatzcharakter auf Nicht-Kontrarietät hinausgedacht werden (Kues: Die belehrte Unwissenheit. Buch III).. eine solche Wahrheit als unbedingte Nullperspektive ist für den Menschen allerdings unerreichbar und muss eine vorstellbare Wunschvorstellung bleiben, während das Reale überdeterminiert vorliegt und vielleicht gar keinem Konsistensgebot folgt.


immanenz der strukturen

obwohl ein alles umschliessendes Universum das übersteigt, was sich bestimmen lässt, ist der Mensch in der Lage, dafür eine Vorstellung zu entwickeln. er kann seine Wahrnehmung transzendieren und ist für komplexe Wechselbeziehungen im Mikro- oder Makrobereich nicht auf das Offensichtliche einer greifbaren Wirklichkeit beschränkt. um Eigenschaften sowie strukturelle Dynamiken systematisch zu erfassen, reicht es bereits aus, das Messbare als geordneten Zustand oder variablen Prozess strukturell zu taxieren die Relationen zwischen den Dingen müssen dann zu einer essentiellen Washeit (quidditas) werden und für einen erkenntnismässigen Zugang neue Wesenheiten erschliessen..
doch was stellen überhaupt Strukturen dar? sie beschreiben einerseits als Orientierungsrahmen der Ratio zu untersuchende Phänomene und werden andererseits als Relationen der Wirklichkeit vorausgesetzt. somit sind sie ein Raster der menschlichen Wahrnehmung und zugleich unterstellter Sachverhalt bei natürlichen Prozessen. wo die Realität allerdings für den Menschen überdeterminiert vorliegt, kann es sich dann nicht um identische und nicht einmal um analog korrespondierende Verhältnisse handeln.
eine von Aristoteles ausgehende und im neuzeitlichen Rationalismus weiterentwickelte Ontologie wollte eine Logik des Seienden sein und übertrug, um eine umfassende Erkennbarkeit zu behaupten, logische Strukturen auf die Sphäre allen Seins. eine solche Universialisierung gelingt mit Weltbildern, welche häufig beliebig erfunden werden, um irgendwann wie der alte Zeus-Glaube wieder verworfen zu werden. solange nicht fraglos zu klären sei, ob logische Strukturen ebenso der Natur immanent sind, gehörten sie für Vertreter des kritischen Realismus wie Nicolai Hartmann eher in eine ideale Sphäre Nicolai Hartmann in Grundzüge einer Metaphysik der Erkenntnis (1921).
ein spekulativ neuer Realismus geht mittlerweile davon aus, dass die Welt neben konkret vorliegenden Entitäten ebenso aus immateriellen Fiktionen des Denkens bestehen muss da man wahre Aussagen über nicht-existierende Dinge formulieren kann, hat Meinong bereits 1904 vorgeschlagen, dass unser Universum nicht nur von real existierenden Objekten bevölkert wird, sondern abstrakte und imaginäre Entitäten mit einschliesst.. für deren Protagonisten und besonders für Graham Harman haben immaterielle Fiktionen des Denkens eine gleiche Existenzberechtigung wie empirische Tatsachen Graham Harman: "Speculative Realism – An Introduction",Cambridge 2018. ein Gedanke über ein abstraktes Bild ist somit kein Epiphänomen, sondern genauso real wie der neuronale Zustand eines Gehirns im Moment der Betrachtung. mit einer solchen ontologische Grosszügigkeit werden die Bereiche des Seins interferent gesehen, auf dass sich der Dualismus von Geist und Materie mit einem substanziellen Pluralismus überwinden lässt. das hat immerhin den Vorteil, dass die Realität auch ohne einen bestimmbaren Bezug zwischen transzendentaler Vernunft und Emperie als eine beständig wahr gegebene vorliegt die Vernunft ist für jenen Realismus nur noch Vermögen und nicht notwendig an Subjekt-Objekt-Beziehungen gebunden. sie kann, wenn sie das nicht Erdenkliche der Welt fabuliert, phantasiert oder fingiert, sich rein spekulativ entfalten..


riskantes knowhow

was kann der Mensch nicht wissen? was soll er nicht erstreben? und was darf er sich nicht erhoffen? wenn Chancen und Risiken bei technologischen Entwicklungen sich bedingen und schwerer abzuschätzen sind, ist es wichtig zu wissen, was man nicht erkennen kann und trotz intensiver Forschung nicht ausreichend zu validieren vermag.
wird wissenschaftliches Knowhow vermehrt mit technischen Entwicklungen verknüpft, nehmen unberechenbare Eingriffe in natürliche Kreisläufe zu seit einigen Jahrzehnten gravierend im Bereich der Chemie, Biologie und durch KI-Anwendungen für die soziale Infrastruktur. nachhaltige Probleme lassen sich dabei seltener voraussehen oder können bei einer grösser werdenden Eindringtiefe von technologischen Innovationen nur als überdeterminierte Unbestimmbarkeiten ambivalent erfasst werden. Entscheidungs- und Handlungsprozesse benötigen bei einem wachsenden Wissensstand dann eine stetig höhere Absicherung, welche vermehrt kollektive Ressourcen verschlingt oder bei Unwägbarkeiten wie der Gen-Manipulation zu juristischen Verboten führt bei schwer zu prognostizierenden Risiken wird die Forderung, manches Wissen restriktiv zu unterbunden, vehementer vorgetragen..
Aristoteles hat der Kreativität grundsätzlich enge Grenzen gesetzt. er plädierte für eine Priorität der Verwirklichung gegenüber dem kontingent Möglichen, mithin im Seienden lediglich das hervorgebracht werden kann, was angelegt ist Wissen im engeren Sinne gab es für Aristoteles nur von unveränderlichen Sachverhalten. dafür hat er Wirk-, Material-, Zweck-und Formursachen ausgewiesen.. heute muss man dafür plädieren, dass Eingriffe in die Natur nur erfolgen sollten, wenn alle Folgen abgeschätzt und kompensierte werden könnten. dabei sind reine Spekulationen auf künftige Entwicklungen, welche nachhaltige Schäden wieder ausgleichen, nicht legitimierbar
vor der modernen Wissensschaft versuchte die Philosophie der Antike das Geschehen der Wirklichkeit schon als Ganzes zu erklären. man ging mit arg begrenzten kognitiven Mitteln davon aus, dass Denken und Sein dasselbe seien. Wahrheiten hatten dafür als etwas Unveränderliches in einem Kosmos vorzuliegen, während das ontologisch nicht Einordbare als Trug abgelehnt wurde in der überlieferten Fassung kann der Satz von Parmenides: dass Denken und Sein dasselbe seien derart gemeint sein. der Grund für das Denken sind dann existierende Seinsformen, während das ontologisch nicht zu ordnende als Trug abzulehnen ist..


topografie des denkens

aus einem Hier und Jetzt heraus entfaltet sich das Denken und ist von einem Subjekt, der Perspektive eines reflektierenden Ich nicht abzulösen. dennoch kann der Ort des Denkens nicht auf Personen oder Sprechakte eingegrenzt werden und ebenso wenig auf die Schallwellen gesprochener Sätze, das Feuern von Neuronen oder die sozialen Effekte einer Sprache.
für Descartes existierte ein Bewusstsein im Gegensatz zum Körper nicht in einem Raum, sondern in der Zeit die Zeit war für René Descartes ein Modus des Bewusstseins. (Princ. philos. III, 3). wenn bis heute unterschwellig an seiner problematischen Trennung zwischen denkender und materieller Substanz festgehalten wird, dann um geistige Prozesse nicht reduktionistisch zu fundieren, als vorrangig biochemische Reaktionen oder soziale Verhaltens- und Sprachspiele analysieren zu müssen. bei Denkakten handelt es sich um mentale Prozesse, welche sich als Epi-Phänomene emergent übersteigen eine solche Verschränkung, welche die eigene körperliche Präsenz auch als Transzendenz umfasst, generiert eine heterotopische Virtualität in einem unbestimmbaren Möglichkeitsraum mentale Akte beanspruchen als aufgeschobene oder ausbleibende Reaktionen eine komplexe Virtualität.. für selbstbewusste Reflexionsprozesse wird fortwährend eine Welt beansprucht, welche die Wirklichkeit übersteigt und bei einem stetig wachsenden Wissensumfang vielleicht irgendwann nicht mehr in sie hineinpasst.


anspruch auf eine weltformel

die theoretische Physik hat ihre Hoffnung, mit einer Theory of Everything die Wirklichkeit zu erfassen, mittlerweile aufgegeben. oder zumindest aufgeschoben, da der Wunsch, den Geltungsbereich von Erkenntnissen in eine systematische Gesamtheit zu bringen, wohl schon zu lange ein menschlicher Traum ist seitdem man die erkennbare Wirklichkeit mit Weltbildern imaginiert, gibt es auch Versuche, diese idealistisch, naturalistisch, phänomenologisch oder finalistisch zu begründen..
obwohl die verstehbare Wirklichkeit nie Realität komplett umfasst, wird an dem Prinzip von einem universellen Wissen festgehalten. diese Prätention völlig abzulehnen, wäre ein Verrat an einem transzendentalen Denken, dessen Potentiale nicht völlig zu durchdringen sind. da das menschliche Vernunftvermögen fortwährend zu neuen Gewissheiten kommen kann, scheint die Erwartung eine Berechtigung zu haben, dass Erkenntnisse in einer fernen Zukunft einmal zu einer systemisch abgeschlossenen Gewissheit führen.
die Vorstellung von einer Welt ist an ihre Erkennbarkeit gebunden und ihre Erkennbarkeit wiederum von einer vorstellbaren Welt bedingt. geht man davon aus, dass sich das Vorstellungsvermögen immer über Grenzen des Wissens hinwegsetzt, lässt sich das Universum weder mit noch ohne einen omnipotenten Anspruch, also der Idee von einer Theory of Everything, einer kohärenten Ordnung vollständig beschreiben bei Kants Unterscheidung zwischen einer Welt für uns und einer Welt an sich wird nicht der Gegensatz von unterschiedlichen Wirklichkeitsebenen herausgestellt, sondern vielmehr die vermittelbare Weise einer kognitiven Aneignung..


falsifikation als evidenz

Theorien, welche sich erfolgreich in der Praxis bewähren, abstrahieren eine empirische Evidenz. sie bilden Wirklichkeitsausschnitte vorhersehbar ab und erweitern fortwährend den Wissensstand mit immer detaillierteren Erkenntnissen. nur um uneingeschränkt eine ausbaufähige Geltung beanspruchen zu können, erweisen sich solche Verallgemeinerungen nicht als zuverlässig genug. eine Theorie prüfen heisst daher nach Poppers Falsifizierbarkeits-Regel, vielmehr Verfahren finden, mit denen sich Wissen widerlegen lässt. da keine noch so grosse Anzahl von Überprüfungen zu zeigen vermag, dass eine Verallgemeinerung zwingend wahr ist, ist das Widerlegen einem Verifizieren vorzuziehen. dies trifft leider ebenso auf die Falsifikation selbst zu, die als erkenntnistheoretisches Prinzip kein Nonplusultra beanspruchen kann der Anspruch einer Falsifizierbarkeits-Regel muss auch hinterfragbar, d.h. selbst falsifizierbar sein. dies gilt vor allem bei einen empirischen Nachweis, der bei konkurrierenden Theorien immer widerlegbar ist.. es ist auch häufig der Fall, dass Ausnahmen umso besser eine Regel bestätigen, indem sie jene erweitern oder in ihrem Umfang beschränken.
um mit der Methode der Falsifikation zu einem garantierten Fortschritt in den Wissenschaften zu kommen, hat der Physiker David Deutsch vorgeschlagen, dass eine Theorie nicht nur falsifizierbar sein soll, sie muss auch Erklärungen bieten, bei denen es nicht möglich ist, sie einfach abzuändern, falls ihr neue Erkenntnisse widersprechen David Deutsch forderte dies in seinem Vortrag "A new way to explain explanation" (Juli 2009).. es soll verhindert werden, dass es Kompromisse durch invariable Modifikationen von Lehrmeinungen gibt, welche fällige Paradigmenwechsel blockieren.
wer derartig argumentiert, ignoriert allerdings, dass neue Paradigmen als strukturell sich etablierende Perspektivenwechsel erst zu veränderten Sichtweisen führen und nicht per se empirische Widersprüche. ob unmittelbar evident oder erweitert durch präzisere Messinstrumente, bleibt die sinnliche Evidenz eine begrenzte Erfahrung, und es ist zu akzeptieren, dass für jede Theorie mindestens eine Alternativtheorie vorliegen kann, welche durch dieselben empirischen Daten gestützt wird.


veritatives irren

das wissenschaftliche Denken bleibt auch bei einem wachsenden Wissenshorizont auf ein Mutmassen angewiesen. wer unentwegt Wissen im Universum sucht, muss bereit sein, in die Irre zu gehen. stösst er auf einen Irrtum, der sich nicht darauf reduziert, das Gegenteil einer Wahrheit sein kann ein Irregehen verweist zumindest immer auf die Fähigkeit zur Unterscheidung zwischen falsch und richtig. der Mensch verfügt über eine kognitive Kompetenz, die sich nicht einfach in der Übereinstimmung zwischen Erkenntnis und Wirklichkeit erschöpft, sondern sich vielmehr weltbildend durch Intentionalität und Kontrafaktizität und Pluriperspektivität sein Umfeld erschliesst. , kann sein Irren unabhängig von einer vertretenen Überzeugung einen heuristischen Wert darstellen und ein Türöffner für neue Denkansätze sein.
für die Protagonisten des kritischen Rationalismus wurde das Irren sogar mit dem Trial-and-Error-Prinzip zu einer unfehlbaren Erkenntnisinstanz für Karl Popper vollzog sich der Erkenntnisfortschritt vor allem durch dieses Prinzip, das zuvor von Herbert Spencer Jennings und W. Holmes für evolutionäre Prozesse in der Biologie als Begriff geprägt wurde.. man meinte, mit einem eruierbaren Irrtum die Asymmetrie von Verifikation und Falsifikation vermitteln zu können. konsequenter Weise müsste ebenso ein Prinzip der Falsifizierbarkeit davon ausgehen, dass es sich hierbei um einen irrtümlichen Ansatz handeln kann, solange Erkenntnisprozesse nicht persistent falsifizierbar sind.


jenseitige perspektive

obwohl die Realität das übersteigt, was sich bewusst erfassen lässt, bleibt die Vorstellung von ihr als Ganzes eine Obsession. vorstellbar ist eine allesumfassende Wirklichkeit erst mit Analogien oder mit Abstraktionen aus der Position einer neutralen Perspektive. für Leibniz war die kosmische Gesamtheit bei einem begrenzten Horizont sogar an die Vielheit unterschiedlicher Perspektiven gebunden und in seiner Theodizee eine Eigenschaft von einzelnen Monaden, welche mit einem jeweils anderen Blickwinkel ganz viele Universa generieren da Monaden bei Leibniz in ihrer Perzeptionen so verschieden sind, stellt jede in ihrer Weise das Universum als ein jeweils eigenes Abbild dar..
Kant hat, um allgemeine Bedingungen für das Erkennen zu verorten, den perspektivisch universellen Blick wieder an den endlichen Horizont des Menschen gebunden. indem er nicht die Frage favorisierte, was etwas ist, sondern was die Bedingungen für mögliches Wissen über etwas sein können, wurde die Erkennbarkeit von Wirklichkeit an das Bezugssystem des subjektiven Intellektes gekoppelt spätestens seit der Renaissance bezeichnet man in Analogie zur Erdkugel und zum Himmelsglobus die Gesamtheit der reinen Erkenntnisse als globus intellectualis. Kant versuchte dafür ein Modell zu entwerfen, mit dem die Grenzen menschlicher Erkenntnis zu bestimmen sind.. damit schien eine standpunktunabhängige Betrachtung obsolet zu sein. auch wenn der Mensch als Beobachter zweiter Ordnung seinen begrenzten Horizont einordnen und relativieren kann eine Beobachtung zweiter Ordnung bleibt dabei stets eine Beobachtung, die Beobachtbares nur beziehungsreich erfasst., wird er niemals in der Lage sein, von einem Jenseits aller möglichen Standpunkte der Realität zu erfassen auch jeder fiktive Standpunkt dafür ist stets ein Irgendwo, das bezügliche Parameter braucht..


hier und jetzt

etwas hic et nunc zu bestimmen, schafft konkrete Fakten. obwohl es immer und überall möglich ist, verweisen solche Bestimmungen aber nicht anhaltend auf dasselbe. bei manchen Elementarteilchen ist sogar nur für ein paar Millionstel Sekunden eine Zuordnung möglich im Bereich des elementar Punktförmigen indexikalisiert scheint die Realität weder real noch lokal zu sein..
kurzlebige Entitäten erfordern eine äusserst präzise Indexierung, und mitunter werden sie allein durch Berechnungen erfasst, wie bei den ephemeren Higgs-Teilchen, welche mit beinaher Lichtgeschwindigkeit fliegend niemals die kurze Strecke bis zu einem Detektor überdauern. einzig Zerfallsprodukte lassen sich von ihnen nachweisen in der Quantenwelt gibt es für elementare Teilchen zumeist eine Bestimmtheit, wenn ihr Möglichkeitsraum kollabiert..


relativer metabezug

das wissenschaftliche Denken strebt nach Allgemeingültigkeit und findet sie vorwiegend bei beständig verlaufenden Prozessen. nur je genauer Zusammenhänge exploriert werden, desto mehr offenbaren sich Strukturaffinitäten auch als schwer zu kalkulierende Instabilitäten. selbst bei einfachen Systemen mit drei Körpern, sorgen in einer Himmelsmechanik Gravitationskräfte für so komplizierte Bahnkurven, dass geringste Änderungen zu nichtlinearen Rückkopplungen führen während das Zweikörperproblem durch die Keplerschen Gesetze analytisch lösbar ist, sind Integrale im Fall von mehr als zwei Himmelskörpern nicht mit elementaren Funktionen berechenbar..
wissenschaftlich können Prozesse erst ermittelt werden, wenn man Phänomene auf überschaubare Faktoren mit einfachen Abhängigkeiten reduziert. bei komplex dynamischen Abläufen, die wie in der Thermodynamik oder Biologie stark abstrahierende Betrachtungen erfordern, fällt es schwer, dafür marginale Relationen zu erfassen. nichtsdestotrotz werden in den Naturwissenschaften universell wirkende Strukturen für alle Phänomene der Wirklichkeit unterstellt. mit mathematischen Modellen und digitalen Simulationen erhofft man sich, auf diese Weise Korrelationen im immer grösserem Umfang zu analysieren. und mitunter gelingt dies erst, wo Effekte einer Selbstorganisation unterstellt werden es wird eine Universalität der Strukturbildung unterstellt, mithin Zustandsänderungen bei physikalischen, chemischen und sogar biologischen Systeme nach den gleichen Regeln ablaufen und in mathematische Formeln erfasst werden können.. verbindliche Regelmässigkeiten müssen sich dann nicht mehr aus den Eigenschaften einzelner Entitäten, den Konstituenten der Materie ableiten, sie sind mit der Vorstellung von einer Gesamtheit als systemische Eigendynamik oder sogar als negative Entropie beschreibbar der Begriff negative Entropie wurde von Erwin Schrödinger geprägt und beschreibt Prozesse, die Entropie exportieren, um ihre eigene Entropie niedrig zu halten..
das wissenschaftliche Denken ist darauf angewiesen, Ordnungen zu beanspruchen, welche als Strukturgefüge allgemeingültig sind bei Kant war die Allgemeinheit noch ein ausschlaggebendes Kennzeichen für eine objektive Gültigkeit von Aussagen und Begriffen.. obwohl der Verstand dazu neigt, seinen Standpunkt zu wechseln und dann Wahrgenommenes zu relativieren beginnt, bleibt er bei der Orientierung auf einen verlässlichen Rahmen angewiesen. oder auf einen imaginärten Metabezug, der vor einem infiniten Regress des blossen Aufeinanderbeziehens von Ansichten zu bewahrt.


mass des denkens

die Wirklichkeit ist zu mannigfaltig und reltiv für allgemeingültige Wahrheiten. der noch Orientierung strebende Mensch kann daher die Faktizität des Realen nur gemäss seiner Verhältnisse erfassen und wird so, wie einst Protagoras feststellte, zum Mass aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind der von Platon überlieferte Homo-mensura-Satz des Protagoras wird je nach Übersetzung der Konjunktionen subjektivistisch, sensualistisch oder relativistisch interpretiert. dabei unterschlägt man gern die grundlegende Bedeutung, welche sich mit dem Wort Mass ergibt.. dabei ist das menschliche Erkennen ein Bestimmen und kein Wissen von den Dingen selbst, insofern im Universum Sinneinheiten nicht an sich vorliegen, lediglich relative Verhaltensweisen von Teilchen und Feldern, die sich aus ihnen zugrunde liegenden Beziehungsstrukturen ergeben.
wer das Wirkliche im Rahmen eines Kosmos, Multi- oder Megaversum mit seinen Bezugsgrössen massnimmt, erhält niemals ein unmittelbares Abbild, sondern nur seinen Messverfahren entsprechende Relationen von Naturphänomenen. Realität üblicherweise bezieht sich das Wort Realität auf den Bereich, der unabhängig vom Bewusstseinszustand existiert. wird in der Form erkannt, in der sie gemäss einer normierbaren Perspektive zugänglich ist, also reliabel bestimmt durch Zahlen und syntaktische Strukturen des Ausdrückbaren. auf diese Weise lässt sich zwar gleichfalls das nicht Erfassbare mit der Annahme einer allumgreifenden Gesamtheit variabel explorieren die Idee eines universellen Zusammenhanges kann allerdings nur eine Präsumtion sein, die sich im Nachhinein zu rechtfertigen hat., welche aber latent als einender Grund vorausgesetzt werden muss. erst dann sind Bezüge zu und zwischen den seienden Dingen überhaupt möglich.


lücke im rationalen

ob die Realität in ihrer Komplexität als eine erkennbare vorliegt oder nicht, ist eine schwer zu beantwortende Frage. aber noch schwieriger ist es zu klären, warum es eine solche Frage überhaupt geben kann. die Frage nach einer Erkennbarkeit beansprucht eine Differenz zwischen dem, was erkennbar ist. und dem, was nur erahnt werden kann. sie zeigt gleichwohl, dass Erfragendes für die menschlichen Perspektive bereits universell als ein Mutmassen vorliegt und sich dem Verstehen dabei entzieht. das menschliche Denken kann sich somit auf kein erstes und letztes Wissen bei Erkenntnisprozessen beziehen und bleibt stets lückenhaft solche Lücken kann genaugenommen auch kein vorgestellter Laplacesches Dämon füllen..
dies müsste frustrierend sein, ist es aber nicht, solange der Verstand beim logischen Schliessen zu synthetischen Urteilen fähig ist. assoziativ ist es möglich, den vorliegenden Wissensstand immer wieder neu zu einer zusammenhängenden Gesamtheit, einer behaupteten Annahme, wie die von räumlichen und zeitlichen Mannigfaltigkeiten, zu verknüpfen. dafür braucht es nichts weiter als das Narrativ, dass überhaupt kohärente Zusammenhänge in der Wirklichkeit vorliegen. um die Realität als Totalität in eine Vorstellung zu bringen, versucht der Mensch sich fortwährend Standpunkte zu imaginieren, mit denen er sich vorstellen kann, eine Welt ausserhalb des eigenen Fliegenglases zu betrachten der Fliege den Ausweg aus dem Fliegenglas zu zeigen, war für Wittgenstein immerhin das Ziel der Philosophie..


sinn des sinnlosen

sinnlose Aussagen, wie die semantische Antinomien "ich lüge" oder "ich existiere nicht", sind weder falsch noch wahr. sie stellen einen Nebeneffekt generischer Potentiale von Grammatiken dar und sind in jeder Sprache artikulierbar. Vertreter des Logischen Empirismus haben sich an Propositionen, die keine Verifizierbarkeit zulassen, lange Zeit die Zähne ausgebissen und sie mitunter als unwissenschaftliche deklariert so rät A.J. Ayer in "Wahrheit, Sprache und Logik": falls sich nicht prinzipiell angeben lässt, wie man über Wahrheit bzw. Falschheit entscheiden kann, sollen Aussagen als wissenschaftlich sinnlos verworfen werden.. dabei stellen sinnlose Sätze auch ein Vermögen des Denkens dar, da immer davon auszugehen ist, dass sie das Potenzial für neuartige Reflexionszusammenhänge haben und zu Erkenntnisgewinnen führen. evidente Sinngehalte begrenzen hingegen das Denken auf ein Begründ- und Begreifbares, sie umfassen nur das, was folgerichtig der Fall sein kann.
um Widersprüchen bei etwa unstimmig erscheinenden Tatsachen auf den Grund zu gehen, braucht es Sprachpotentiale, die eine Dualität von wahr und falsch unterlaufen. erst so lässt sich mutmassen, was noch keinen Wahrheitskriterien unterliegt. universell wissenschaftliche Orientierungen können bei der Sinngebung des universell Natürlichen Sätze ohne Wahrheitsgehalt nicht völlig ablehnen. die Wirklichkeit als unbedingbare Einheit übersteigt stets das Begreifbare, und sie muss es auch, damit sie bei Pradigmenwechseln fortwährend ein sinnvoller Rahmen für Erkenntnisprozesse bleibt.


transzendente anmassung

wenn es alles gibt, was es geben kann, warum dann nicht direkt als erkenn- und begreifbare Tatsachen? die Frage scheint vermessen zu sein, wenn man davon ausgeht, dass der Horizont des menschlichen Verstehenwollens mit einem endlichen Lebensbezug beschränkt bleibt. die Vorstellung von einer allumfassend erkennbaren Realität ist wohl eine menschliche Hybris, die Gewissheiten eines endlich bleibenden Sachverstandes mit den unendlichen Potentialen des überhaupt Wissbaren unifiziert es lassen sich Gewissheiten mit der Ungewissheit lediglich in ein ambivalentes Verhältnis bringen, so dass auch die Vorstellung von einer Begrenzung in Raum und Zeit in eine Grenzenlosigkeit hineinpasst..
Kierkegaard machte die Leidenschaft der menschlichen Ungeduld dafür verantwortlich für Kierkegaard war es das höchste Paradox des Denkens, etwas entdecken zu wollen, das es selbst nicht denken kann. (in Philosophische Brocken). die Vorstellung von einem überbordenden Alles ist das Höchste, was der Mensch zu transzendieren vermag. insofern es aber keine henologische Perspektive und keine empirische Basis für ein solches Ansinnen gibt und wohl niemals geben kann, bleibt das Wissen um sein Nichtwissen als ein Ungrund der Ungrund ist nach Jakob Böhme kein denkbarer, vielmehr ein existentiell zu lebender Grund. das Fatum des menschlichen Verstehenwollens.


© frank richter, 2016-19