alles als wissen


die hyperbolik universeller ansprüche


"...im Grunde geht es immer nur um die Herstellung von Metaphern..."

Heiner Müller

totale als urgrund

was sich erkennen und verstehen lässt, soll immer irgendwo hineinpassen. dafür schafft sich die Einbildungskraft einen fulminanten Rahmen. doch wie mächtig muss jener sein, damit das, was jederzeit und an jedem Ort der Fall ist, komplett umfasst wird? es kann sich bei dem Anspruch, für die Vielfalt des Erkennbaren eine All-einheit zu induzieren, wohl nur um eine Vermessenheit handeln, um eine vermessene Anmassung, die eine absolute Unbeschränktheit zum Prinzip erhebt wenn solch eine Prätention keine Begrenzung kennt, kann die Leitfrage der Ontologie: "Was gibt es?" einfach mit "Alles" beantwortet werden (siehe Willard Van Orman Quine, "On what there is", 1948)..
Thales von Milet war der Überlieferung nach der erste griechische Philosoph, der einer ontologischen Totale eine fluide Grundlage gab. er destillierte das Ensemble der mythischen Phänomne zu einem substanziellen Einheit und war damit hinlänglich erfolgreich. sein Ansatz verpflichtet, obgleich nur auf Wasser gebaut, bis heute ein philosophisches Denken auf das Phantasma bei Thales bekommt die Bestimmung von Gesamtheit mit dem Urstoff Wasser eine mystische Bedeutung und ist somit auf keine rationale Begründung angewiesen. eines Verstehenwollens in einem absoluten Einen.


unmögliche nullperspektive

obwohl erst die Vorstellung von einem allumfassenden Ganzen eine universelle Orientierung garantiert, soll sie die Wirklichkeit nicht als Totalität begrenzen. sie darf keine geschlossene Einheit sein, lediglich ein Einendes, das unbeschränkt bleibt. das wissenschaftliche Denken ist darauf angewiesen, um sich fortwährend selbst überschreiten und aus einer Distanz heraus überblicken zu können. es gelingt am einfachsten mit einer weltanschaulichen Entsprechung, die ohne eine Nullperspektive sich ein fundamentum inconcussum schafft. nur ist eine derartige Position strenggenommen eine unmögliche Perspektive, da sie einen archimedischen Punkt ausserhalb des Wissbaren beansprucht. Descartes meinte ihn mit seinem hyperbolisch alles hinterfragenden Zweifel gefunden zu haben bereits Augustinus hatte die produktive Karft des Zweifelns erkannt, da darin eine Gewissheit zu finden sei. (De vera religione 39,73). doch wo ein radikaler Zweifel zum Prinzip erhoben wird, droht irgendwann jede Gewissheit, selbst die des Zweifelns verloren zu gehen. der cartesische Zweifel führte nicht zu einem unbedingten Wissen, da es ausgeschlossen ist, an allem zu zweifeln und gleichzeitig in allem getäuscht zu werden Descartes konnte seinen Zweifel letztendlich nur als Methode behaupten..


streben nach vollständigkeit

vielleicht impliziert nur das menschliche Verlangen nach Vollständigkeit die Auffassung von einer universellen Weltgesamtheit phänomenologisch wird Welt gern als grösster Horizont verstanden, welcher die Peripherie aller Entitäten umfasst . zwangsläufig ist nicht davon auszugehen, dass die Realität dementsprechend vorliegt. ihr könnte genauso gut ein inkonsistentes Werden zugrunde liegen, eine Genese mit temporären Regelmässigkeiten, die sich einzig als ein Entsprechungsverhältnis allgemeingültig abstrahieren.
obwohl das menschliche Transzendenzvermögen eine Grenzerfahrungen bleibt, endet die Vorstellung von einem Universum nicht immanent an der Endlichkeit erfassbarer Welterfahrungen. wie beschränkt auch das Erkenntnisvermögen sein mag, ein zu antizipierendes Aussen ist allenfalls erahnbar und somit eine offene Angelegenheit. damit der Anspruch von einer Vollständigkeit des Universums indes nicht aufgegeben werden muss, konzipiert man das Universale inzwischen sogar im Plural als Multiversum Parallelwelten wurden bislang eher als Gedankenexperimente in der Philosphie erörtert. bzw. viele-Welten-Konglomerat.


verum et factum

um Naturwissenschaft betreiben zu können, braucht es die Vorstellung von kausal wirkenden Kräften. auch wenn sie nicht konkret ermittelbar sind, wird daran festgehalten. wer sich darüber hinwegsetzt und verursachende Verknüpfungen verwirft, da sie zu Komplikationen führen, gerät wie einst Bertrand Russel in eine Erklärungsnot, solange er nicht äquivalente Alternativen für kausale Relationen vorzuweisen hat Bertrand Russell schlug 1912 in "The Problems of Philosophy" vor, das Wort Ursache aus dem Wortschatz der Philosophie zu streichen. .
obwohl mathematische Modellierungen für natürliche Phänomene im Mikro- und Makrobereich sehr präzise Vorhersagen von Zusammenhängen in Raum und Zeit liefern, liegt bis heute kein akzeptables Konzept vor, das Beziehungen zwischen Ursachen und Wirkungen universell erfasst. alle Versuche, jenes Defizit zu füllen oder zu umgehen, beanspruchen für interdisziplinäre Ansätze zu unterschiedliche Theorien noch im 20.Jahrhundert wurde ein objektiver Kausalitätsbegriff mit naturalistischen Vorstellungen verbunden, dem diverse zirkuläre Ansätze des Konstruktivismus und der Systemtheorie folgten, die aber nicht zu befriedigenden Lösungen führten. .
in der Wirklichkeit liegen zu mannigfaltig verschachtelte Abhängigkeiten vor, so dass Ursachen nicht vollständig zu separieren sind. selbst vielversprechend probabilistische Interpretationen, die hyperkomplexe Verhältnisse als strukturelle Wahrscheinlichkeiten verstehen, bieten nur begrenzt Erklärungen für Prognosen kausale Beziehungen sind auch hier Vereinfachungen, mit denen Verhältnisse modellhaft universalisiert werden. . sie sind gleichwohl als Referenzrahmen ein aussichtsreicher Ansatz für das Verstehen mannigfaltiger Wechselwirkungen für David Hume war die Gewohnheit ein Referenzrahmen, der dazu verleitet, für die Zukunft Ähnlichkeitsbeziehungen aus der Vergangenheit abzuleiten. .
man könnte davon ausgehen, dass sich der Begriff der Verursachung aus der menschlichen Erfahrung eines zweckmässigen Handelns abstrahiert hat. nicht die Beobachtung von Veränderungen in der Wirklichkeit, sondern das Streben, sie für eigene Ansprüche zu fassonieren, scheint bei dem Gedanken einer ursächlichen Verbindung grundlegend zu sein. dafür reicht es allgemein gesehen aus, dass sich Kausalitäten als konstante Abläufe experimentell in einem festgelegten Setting von Effekten isolieren und technologisch Prozesse optimieren lassen.
als einer der ersten hat sich Giambattista Vico gegen die Ansicht gewandt, dass eine methodische Wissenschaft die Natur in toto erfassen könne. von der vergleichenden Rechtsbetrachtung eines Hugo Grotius ausgehend, vertrat er die Überzeugung, dass die Geschichte der primäre Gegenstand des Wissens sei. der Mensch könne deswegen allein die Phänomene bewusst begreifen, die er selbst hervorbringt (verum et factum convertuntur), während die Natur nur der erkennt, der sie erschaffen hat Vico hat in seiner "Neuen Wissenschaft" bereits 1725 den Weg für einen konstruktivistischen Methodenbegriff der Moderne geebnet.. mit einem solchen Ansatz, der eine wesentliche Verwandtschaft zwischen Erkenntnisobjekt und -subjekt radikal einfordert, würde einzig ein Homo ludens das verbindlich Einende eine Wirklichkeit verstehen, indem er sie realiter nachzubauen oder virtuell zu simulieren vermag.


diskrepantes relativieren

wer universell denkt, stellt sein Wissen in komplexe Bezüge und relativiert mit wachsendem Wissensstand Zusammenhänge. schlimmstenfalls erscheint ihm irgendwann Erkennbares als nur relativ wahr. doch die Feststellung, dass alles relativ wahr sei, ist unakzeptabel, solange sie ohne ein absolutes Fundament selbst relativierbar wird. die Aussage, dass alles, was als wahr gilt, nur relativ wahr sein kann, muss hingegen akzeptiert werden. Relativität kann sich allenfalls auf Gegebenes beziehen und kein absolutes Prinzip verkörpern.
der Relativismus als philosophische Denkrichtung hat es nie leicht gehabt, weil er selten als Denkstil überzeugte und zudem sich mit der klassischen Logik schlecht verträgt. er ist entweder inkonsistent, wo er alles als relativ deklariert, ausser die eigene Position, oder trivial, so allgemein postuliert wird, dass Wahrheitsansprüche nie sicher sein können wer die Wahrheit von Aussagen und Prämissen als bedingt ansieht, muss auch bereit sein, sich selbst zu relativieren und dieserart bezähmen. ein Gesamtzusammenhang lässt sich nicht auf die Beziehungen seiner Bestandteile, d.h. allein auf relationale Bezüge reduzieren. er beansprucht auch die Wahrheit einer fiktionalen Wesenheit, welche nicht relativiert werden darf.


fragilität des wissens

wo Naturwissenschaften umfänglicher Erkenntnisse produzieren, geht der Überblick selbst in lang überschaubaren Bereichen wie der Botanik oder Geologie verloren. mehr Knowhow in der Forschung führt unweigerlich zu Strategien der Ausspezialierung, mit denen Perspektiven für Entdeckungen diverser und unkalkulierbarer werden.
kommt bei einer sich ausdifferenzierten Spezialisierung Wissen zu keiner abschliessenden Auflösung, führen neue Erkenntnisse stets zu neuen Fragen oder einem relativierenden Aber Durchbrüche wie etwa die Entzifferung des menschlichen Genoms können einen besonderen Entdeckergeist wecken, aber ebenso desillusionierend wirken, wenn deutlich wird, dass es noch weiterer Quantensprünge bedarf, um beim Klonen tatsächliche Erfolge in der Humanmedizin zu erzielen. . sogar technische Erfindungen, die sich mit wissenschaftlichen Entdeckungen erfolgreich etabliert haben, sind nicht unfehlbar und mit wachsenden Unwägbarkeiten beanstandbarer denn je. Risiken des technologischen Fortschritts müssen mittlerweile mit viel digitalem Aufwand prognostiziert und reguliert werden, so dass die Beherrschbarkeit technischer Systeme mehr und mehr Ressourcen verschlingt.
ein Anwachsen von Wissens erzwingt in postmodernen Wachstumsgesellschaften einen Bedeutungsgewinn und zunehmend einen Bedeutungswandel des Nichtwissens. der Gegensatz von Gewissheit und Ungewissheit verliert bei einer schwer überschaubaren Bedingtheit und Verflochtenheitan an Trennschärfe. es ist wie bei einem Katz-und-Maus-Spiel, wo Mobilität für mehr Dynamik sorgt, die in ihrer Entwicklung umso weniger planbar wird.


immanenz des zufalls

seit der Antike ist das Bestreben ungebrochen, mit Verallgemeinerungen die begreifbare Wirklichkeit einheitlich zu deuten. dabei wird latent vorausgesetzt, dass Unordnungen konträr zu Ordnungen stehen, und gleichzeitig ein immanenter Bestandteil in ihnen sein können. für die Erkennbarkeit der Natur als Ordnung bleibt die Auffassung von willkürlichen Freiräumen unerlässlich, und vor allem die Annahme einer Willkür als absoluten Zufall, welcher zwischen einer erkennbaren Ordnung und Unordnung fungiert ein absoluter Zufall muss ein Zufall sein, der grundlos von jeglichen kausalen Zusammenhängen zustande kommen. .
das Chaotische, weil als Determination etwa noch Verkannte oder per se Fluktuative, kann im grossen Ganzen in der Dreierbeziehung Ordnung-Zufall-Chaos in eine akzeptable Kohärenz gebracht werden unter den Naturwissenschaftlern ging Heisenberg erstmals davon aus, dass es im subatomaren Bereich keine Determination und damit absolute Zufälle geben müsse.. um fortlaufend entscheiden zu können, was strukturiert in welcher Form vorliegt und was nicht, braucht das naturwissenschaftliche Denken ein Vermittelndes, das sich einer Zuordnung entzieht. derartiges kann eigentlich nur ein Zufall leisten, der unbestimmbar ist und damit als nicht definierbares Medium universell die Unterscheidung von Ordnung und Chaos garantiert.


offene gewissheit

irrtümliche Annahmen führen nicht zwangsläufig zu falschen Erkenntnissen. sie können sich bei einer falsch interpretierten Faktenlage rein zufällig sogar als wahr erweisen und, wie Bertrand Russell und Alexius Meinong als Erkenntnistheoretiker meinten, nicht ausreichend begründet werden Russell bezieht sich in einem Beispiel auf eine Uhr, die stehengeblieben ist, aber zweimal am Tag die richtige Zeit anzeigt (Human Knowledge: Its Scope and Limits) 1948 und Alexis Meinong berichtet schon 1906 von der Halluzination einer geträumten Windharfe, die unbekannterweise wirklich an einem Baum hing.. der Wittgensteinianer Edmund Gettier ist später diesem Problem in einem bis heute kontrovers diskutierten Aufsatz dezidiert nachgegangen, um festzustellen, dass auch Gewissheiten fallibel eine Überzeugung rechtfertigen, wenn sie durch falsche Beobachtungen oder einfach mit Raten zustande kommen in Edmund Gettier: Is justified true belief knowledge? Analysis 23.6, Juni 1963..
die Geschichte der Wissenschaften bietet für die Vagheit von gerechtfertigtem Wissen einige kuriose Belege. so ermittelte Kepler aufgrund einer abstrusen astrologischen Analogie, dass der Mars zwei Monde besitzen müsse, insofern die Erde nur einen und der Jupiter vier hat, und lag damit richtig. Hegel beharrte gegen das Wissen seiner Zeit auf neun Planeten in unserem Sonnensystem und hat recht behalten, da nach der Degradierung des Pluto zum Asteroiden manche Astronomen wieder nach einem, noch unentdeckten Kandidaten suchen.
wo Wissen beansprucht wird, das sich universal an einem unendlichen Ganzen misst, sind nicht immer ausreichende Informationen für einen Sachverhalt zu bekommen und für ein konsistentes Weltbild unentwegt neue theoretische Modellierungen erforderlich. man könnte daraus schliessen, dass Wissen als wahre, gerechtfertigte Überzeugung selten vorliege. fatalerweise ist auch eine solche Erkenntnis nicht unfehlbar, da sie ebenso wenig eine Gewissheit darstellt der wissenschaftliche Anspruch von Wahrheit ist ebenso auf den Zweifel als Korrektiv angewiesen, damit Erkenntnisse und bewährte Methoden hinterfragbar bleiben..


hyperkomplexes schlussfolgern

die Logik war für die Griechen in der Antike im Gegensatz zu einer überredend-wollenden Rhetorik eine Instanz für das korrekte Argumentieren das ambivalente Verhältnis von Logik und Rhetorik war auch ein konfliktgeladenes und hat langfristig zu einer Logisierung der Rhetorik und zu einer Rhetorisierung der Logik geführt.. mit jenem Anspruch etablierte sich nachhaltig ein Schlussfolgern, das Verbindlichkeiten für alles und jeden einforderte, und mit Kant zunehmend transzendental verwendet für die moderne Forschung zu einer allgemeinen Theorie des Denkens wurde. daran hat sich mit der Ablösung der Naturwissenschaften von philosophischen Grundsätzen wenig geändert, obwohl nach wie vor ungeklärt bleibt, ob ein logisches Operieren dem Menschen a priori gegeben ist oder lediglich ein Desiderat seines Sprachvermögens darstellt schon Rousseau fragte sich, ob die Menschen die Worte nötig ätten, um denken zu können, oder ob sie das Denken noch nötiger gehabt hätten, um die Kunst des Sprechens zu erfinden (Rousseau, Über den Ursprung der Sprachen, S. 153).
für naturwissenschaftliche Ansprüche hat sich ein logisch widerspruchsfreies Schliessen durchgesetzt, insofern es einen Konsens erbringt, der es erlaubt, unabhängig von Personen und örtlichen Gegebenheiten Wissen zu verallgemeinern. dabei ist die Logik eine interaktive Praxis für das Kommunizieren geblieben und spezialisiert eine sich weiterentwickelnde Strategie für Erkenntnisansprüche. die Reichweite verringert sich allerdings, wo man Sachverhalte differenzierter analysiert und bei einer sinkenden Halbwertszeit von Theorien sich der Wissensstand relativiert wo ein zusammenhängendes Regelsystem relational komplexer Aussagen angestrebt wird, engt es den Rahmen von Konklusionen ein und kann zu Paradoxien führen..
logische Theoreme beanspruchen mittlerweile immer mehr Erweiterungen, die wie bei der intuitionistischen oder mehrwertigen Logik überlieferte Prinzipien und Operationen ignorieren oder extendieren. es erhöht sich die Zahl von Wahrheitsfunktionen und Ausnahmebestimmungen, wo Regeln des Schliessens offener designt werden. auf diese Weise lassen sich mathematische Möglichkeitsräume konstruieren, die indessen so komplex sind, dass sie nur Computerprogramme noch zu händeln vermögen. dies kann zu einer hohen Intransparenz führen so werden für mathematische Probleme Theorembeweise, die eine Software stochastisch oder generativ erstellt, erst anerkannt, wenn sie für einen Menschen nachprüfbar ist..


rekursiv definieren

der menschliche Intellekt mag begriffliche Selbstbezüglichkeiten, wenn er mit ihnen prägnant offen argumentieren kann. für das wissenschaftliche Denken hingegen sollten Begriffe nicht selbstbezüglich definiert werden, damit sie nicht bereits das voraussetzen, was sie zu bestimmen haben. bei der Rekursion lässt es sich indes nicht vermeiden. wer den Begriff allgemein erklären will, behandelt ihn unweigerlich rekursiv das Erklären muss sich selber aufrufen und dabei konkretisieren.. wird dies als Demonstration verstanden, hat man eine auf sich angewandte Regel rekursiv veranschaulicht.
sinnfälliger scheint es, derartiges mit einem Beispiel wie der Schneeflocke zu versinnbildlichen. hier wird augenscheinlich deutlich, dass sich idem per idem das Prinzip einer Konstruktion selbst konstruiert. eine Software, die solches für den Computerbildschirm darstellt, muss eine Abbruchbedingung begrenzen. ansonsten hängt sie sich in einer Endlosschleife auf. das gilt ebenso für Metatheorien, die wie der kritische Rationalismus eine alles inkludierende Allgemeingültigkeit beanspruchen, aber nur bedingt auf sich selbst, also rekursiv angewendet werden dürfen bei Metatheorien hat die Klasse der Falsifikationsmöglichkeiten leer zu sein, insofern schon das Bestehen einer Falsifikationsmöglichkeit die Idee der Falsifikation zum Provisorium degradiert..


unverbindliche differenz

intuitiv verfügt der Mensch über mehr Wissen, als er mit Gewissheit anzugeben vermag. doch was nützt es, wenn er es nicht ausreichend begründen kann. ein intuitives Wissen, dass jenseits möglicher Erfahrung eine vorliegende Wirklichkeit erfasst, gerät in Schwierigkeiten, wenn es sich erklären muss. so wie Augustinus nicht ad hoc klarzustellen vermochte, was die Zeit ist, fällt es schwer, etwas das primär auf eigene Anschauungen beruht, evident zu begründen für Augustinus war die Zeit eine rein subjektive Anschauung der Seele..
das menschliche Abstraktionsvermögen kann kosmische Dimensionen erfassen, die sich mit Anschauungen mutmassen lassen und mehr ein individuelles Ermessen bleiben. vielleicht gelingt es deshalb immer unzureichender, bildliche Evidenzen auf eine viable Verbindlichkeit festzulegen. sogar bei von einem Computerprogramm imitierten Mondrian-Komposition scheint es unmöglich zu sein. auch hier werden ästhetische Erfahrungen initiiert, welche sich nicht verbindlich bestimmen lassen. die Unverbindlichkeit des Imaginierbaren trennt von dem Ausdrücksvermögen jeder generierbaren Abstraktion ein Spalt. eine grenze, die nicht mit Deutungen zu füllen ist, weil etwa die Möglichkeiten des Gestaltbaren die Potentiale des Interpretierbaren übersteigen in seiner Schrift "Über die Seele" grenzt Aristoteles daher auch die Einbildung (phantasia) von der Wahrnehmung (aisthesis) und dem Denken (noein) ab (De an. 427 b 9-12..


wissen im rausch

wo Informationen auf einem Bildschirm von einem Rauschen unterdrückt, Gespräche durch ein Knacken gestört und Bilder zerpixelt werden, liegen Störungen vor. sie richten sich gegen eine festgelegte Funktionalität und können sie bis zur Unkenntlichkeit auflösen Störung werden entweder als Abweichung von technischen Parametern oder als Abweichungen von kommunikativen Erwartungen wahrgenommen.. solche Zerfallserscheinungen sind häufig das Ergebnis von interferenten oder entropischen Prozessen, die in digitalen Medien auch installierte Filter oder fehlerkorrigierende Codes nicht zu bändigen vermögen. selbst bei mit Redundanzen arbeitenden Übertragungen kann es zu Abweichungen kommen, welche sich nur aufwendig oder gar nicht kompensieren lassen.
wird die Störung als Teil der Normalität angesehen, stellt sie einen Parameter dar, der hinzukommend eingreift und Erwartungen unterläuft. in einem chaotischen System, in dem alle möglichen Zustände Informationen wären, würden sich Störungen der Wahrnehmung völlig entziehen. sie benötigen für ihre aisthesis als Pendant eine vorliegende semiosis von Ordnung immer etwas weniger als alles Mögliche.


erfinden statt finden

was heute als allgemeine Gewissheit gilt, kann morgen schon mit neuen Theorien, anderen empirischen Zugängen widerlegt werden. die Realität gibt im Grossen und Ganzen nicht vor, wie man über sie zu sprechen hat. das meinte jedenfalls Nietzsche, als er in seinem Aphorismenbuch "Jenseits von Gut und Böse" feststellte, dass Philosophen nichts finden, sondern vorwiegend erfinden "Jenseits von Gut und Böse", Kapitel 3, Erstes Hauptstück: Von den Vorurtheilen der Philosophen . konsequenterweise konnte für ihn Wissen nur noch ein Interpretieren sein und sogar die Sinneswahrnehmung, die unsere Existenz orientierend fundiert, wird für Nietzsche primär durch Interpretationen geleitet. . mit jener skeptische Haltung gab Nietzsche selbst das Argumentieren auf und fabulierte stattdessen die Naturgeschichte als eine allzumenschliche Sinnsuche.


äpfel und birnen

man soll nicht Äpfel mit Birnen vergleichen. sie werden nicht nur in einem Obstladen getrennt gewogen und ausgepreist, auch in wissenschaftlichen Untersuchungen verschieden kategorisiert.
doch wo zu ermittelnde Bezüge sich nicht an althergebrachte Redensarten halten, ist ein Vergleichen unumgänglich. jedem Abwägen geht dann ein partielles Gleichsetzen voraus, was ein allgemeines Relativieren erlaubt. hierbei wird deutlich, dass generell alles Vorliegende miteinander vergleichbar ist. einzig das von Philosophen veranschlagte absolut Vereinzelte, das völlig Alogische und in jeder Hinsicht Zufällige bei Hegel war es das reine Sein, das sich jeder Bestimmung entzieht., welches es für Naturwissenschaftler in einem Raum-Zeit-Kontinuum gar nicht geben kann, würde sich dem entziehen.


fokus der vagheit

ohne präzise Begriffe sind keine nachhaltig anschlussfähigen Theorien zu haben. doch kann es eine sprachliche Präzision für solche Theorien überhaupt geben? für Popper reichte es aus, dass ein Begriff nur so exakt vorliegen muss, wie es eine Problemsituation erfordere Karl R. Popper in seinem Exkurs über den Essentialismus (siehe: "Ausgangspunkte: meine intellektuelle Entwicklung").. allein der epistemische Anspruch bestimmte für ihn, in welchem Umfang bei Definitionen Präzisierungen oder Erweiterungen nötig werden.
mittlerweile sind vage Begriffe in komplexen Theorien unumgänglich geworden. sie müssen nur für ihren Anwendungsbereich zurechtgeschliffen werden und besonders passgenau dort, wo sie in Laborwissenschaften bei Analysen etwas bestimmen. bei Plato waren Begriffe noch als Ideen an ewigseiende Wesenheiten gebunden und wurden derart als eherne Einheiten von Bestimmungen, Prinzipien oder Gegenstandsklassen benutzt die Scholastiker bemühten sich in diesem Sinne um eine strenge Disputationskunst. sie gingen davon aus, dass den allgemeinen Begriffen (Universalien) eine wahrhafte Wirklichkeit zukommt. .
für Hegel, der an das platonische ontos on anknüpfend die Wahrheit als eine selbstreferenzielle Wirklichkeit begreift, enthielt die Bedeutung eines Begriffs den gesamten Denkweg zu ihm hin und blieb wie das wahre Ganze vieldeutig. derart komplex lassen sich philosphische Begriffe wie Knoten in einem Netzwerk verknüpfen, um in einem zu bedenkenden Möglichkeitsraum Fragen fortwährend neu zu stellen um zu neuen, weiterführenden Erkenntnissen zu kommen, muss man nach Ernst von Glasersfeld mit der komplexen Vagheit einer Sprache denken und davon ausgehen, dass jedes Raster, welches wie ein Netz über die erkennbare Realität geworfen wird, flexibel sich anzupassen vermag..
in positivistisch orientierten Wissenschaften kann solch ein Ansatz selten behauptet werden. wo die Halbwertszeit von Theorien sinkt, sind wissenschaftliche Heuristiken darauf angewiesen, sich ebenjener analytischen Mittel zu bedienen, von denen sie eigentlich bei statistischen Test eine Entlastung suchen. doch sie bleiben gleichfalls, wo sie eine universielle Genauigkeit suchen, an die Vagheit der Sprache und Vieldeutigkeit von stochastischen Modellen gebunden. ergeben sich dabei keine Verallgemeinerungen, werden Wahrheiten zukünftig zu etablierende.


signifikante exempel

kein Lehrbuch der elementaren Logik kann auf den sterblichen Sokrates oder das Referenz-Double Abend- und Morgenstern verzichten. das Exemplarische ist ein Probierstein des Denkens und gemeinhin ein rhetorischer Imperativ für die Urteilskraft. wo es schlagkräftig zu überzeugen gilt, wird sogar ein Beispiel zum Kriterium der Wahrheit. es hat dann abstrakte Gedanken nicht nur zu illustrieren, sondern muss als Exempel wie bei Gilbert Ryle für eine Analyse des Geistigen definitiv Begrifflichkeiten untermauern Gilbert Ryle argumentiert in "The Concept of Mind" virtuos mit Beispielen für eine rämliche Disposition des menschlichen Bewusstseins, ohne eine formale Definition vorzulegen..
was in den Naturwissenschaften das empirische Ergebnis eines sinnfälligen Experiments übernimmt, leistet in den Geisteswissenschaften ein plausibel statuiertes Exempel. es wird für eine These oder wie bei den Gettier-Fällen Gettier zeigte mit simplen Beispielen aus dem Alltagsleben, wie die gerechtfertigte wahre Meinung auch durch einen Schluss aus falschen Prämissen zustande kommen kann. gegen die klassische Wissensdefinition konträr eingesetzt. da sich bei einer hermeneutischen Analyse Beweise nicht wie in der Mathematik entwickeln lassen, werden signifikante Exempel statuiert, um Gewissheiten zu untermauern. ohne sie würden manche Begriffe ihren Kontext verlieren und Theorien gegenstandslos bleiben. es darf freilich nicht vergessen werden, dass Beispiele nur unzuverlässige Argumente darstellen. sie können keine objektive Allgemeinheit beweisen und ebensowenig bei einem freien Bewzugsrahmen eine objektive Faktizität beanspruchen. indem sie lediglich für etwas Bestimmtes eine Vorstellung ermöglichen, bleiben sie vage Behauptungen für das Universelle.


praxis versus poesie

ein dualistische Verständnis von Theorie und Praxis verführt zu einseitigen Präferenzen. entweder wird eine praktische Überprüfbarkeit von Wissen oder die vorhergehende Reflexion favorisiert. Puristen der einen wie der anderen Seite begründen ihre Position allerdings praxisfern. denn Theorien wie die Newtonsche Mechanik oder die Wärmelehre wurden nicht aufgrund der zur Verfügung stehenden Fakten entworfen und gleichfalls wurde nicht erst Datenmaterial in Laboren gesammelt, wenn dafür ein heuristischer Anlass vorlag.
jedem Laborieren und Herumtüfteln gehen Überlegungen voraus, die auf Verallgemeinerungen zielen dass sich Tatsachen ohne theoretisch fundierte Beschreibungssysteme nicht ermitteln lassen, hat immer wieder zu Krisen des Empirismus, des Induktionismus und Positivismus geführt. , und es gibt kaum wissenschaftliche Konzepte, die ohne praktische Erfahrungen auskommen. nicht einmal die Mathematik erlaubt derartiges, weil sie ein händelbares Zahlenverständnis vor jeder Regelbegründung voraussetzt. das einseitig tendenziöse Privilegieren der Praxis gegenüber der Theorie oder umgekehrt ist vermeidbar, wenn man das Theoretisieren per se als Aktivität von transzendenter Lebensbesinnung versteht. d.h. als einen Akt, der sich in der Weise einer téchne als Poesie die Poesie ist immerhin ein fundamentales Alphabet des menschlichen Denkens und kann als zuverlässiges Instrument zur Aufdeckung von unbestimmbaren Gründen erweisen. ereignet.


exklusives philosophieren

das philosophische Denken verliert immer mehr die Verbindung zum wissenschaftlichen Fortschritt. während es bei Aristoteles noch selbst Wissenschaft war und im Mittelalter sogar Königin der Wissenschaften, ist heute ein Erkenntnisstreben um seiner selbst willen entthront. seitdem Wissen an technologischen Erfolgen gemessen und durch Apparate in Laboren geprägt wird, hat die Philosophie als übergeordnetes Ressort abgedankt. sie kann mit ihren Ansätzen den Wissenschaftsprozess weniger beeinflussen und mit ihren Verallgemeinerungen kaum noch als Ganzes reflektieren eine allgemein erklärende Erkenntnistheorie stösst zunehmend an Grenzen, wenn sie fachübergreifend die Voraussetzungen und das Zustandekommen von Erkenntnissen zu thematisieren versucht..
wenn wissenschaftliche Ansprüche sich ausspezialisieren und in stets neueren Disziplinen Erkenntnisbereiche erfassen, werden Experten rar, die enzyklopädische Kompetenzen ausbilden und fachübergreifend durchzusetzen vermögen. Gaston Bachelard, der eine solche Forcierung bereits im vergangenen Jahrhundert voraussah, warnte daher, dass irgendwann jedes wissenschaftliche Problem, jedes Experiment, ja sogar jede Gleichung einer eigenen Philosophie bedarf In Gaston Bachelard "Die Bildung des wissenschaftlichen Geistes", 1938.


gefangen im konsens

in wissenschaftlichen Diskursen werden Erkenntnisprozesse nachvollziehbar kommuniziert. im Normalfall tauschen Koryphäen einer Denkschule Informationen und Überzeugungen unmissverständlich aus das Ziel wissenschaftlichen Arbeitens ist nach wie vor die systematische und nachvollziehbare Darstellung von Erkenntnissen.. erst inkomparabele Unstimmigkeiten führen dazu, dass über das Verhältnis zwischen dem, was jemand darlegen will, und dem, was ein anderer versteht, so lange dis- oder rekursiv verhandelt wird, bis sich kohärent ein Konsens einstellt.
kommt er nicht zustande, ist der Austausch meist von zu verschiedenen Kompetenzen und Interessenlagen bestimmt. darüber kann man sich wiederum ausgiebig auf Symposien und in internen Fachzirkeln verständigen. und auch hier gilt, dass wo Wahrheitsansprüche erhoben werden, sich nur nachvollziehbar kommunizieren lässt, was im Grossen und Ganzen mit einem Konsens vermittelbar ist.


artifizielle independenz

eine künstliche Intelligenz operiert diskret auf der Basis rationaler Kriterien und kann sich bestens mit anderen digitalen Systemen vernetzen. erst für die Kommunikation mit einem Menschen benötigt sie ein Interface, das zwischen abstrakt und symbolisch intendierten Propositionen vermittelt. darauf sind ebenso routinierte Softwareentwickler angewiesen, wenn sie bei einer steigenden Komplexität von Operationen einen floatierenden Code nachvollziehen wollen ein nur aus Binärzeichen bestehender Code ist die einzige Sprache, die ein Computer, aber bei komplexen Programmen immer seltener ein Mensch verstehen kann..
optimieren sich abgekoppelt von einer menschlichen Obhut Software-Systeme, operieren sie selbstbezüglicher auf einer virtuellen Ebene da ihnen bei virtuellen Operationen der Sinn für ihr Handeln fehlt, können sie auch bedenkenlos Komplexitäten generieren. . irgendwann haben sie bei sich potenzierenden Verarbeitungs- und Speicherkapazitäten vielleicht ein komplementäres Vermögen für doppelsinnige Sprachanalogien, das intuitive Problemlösen und sogar eine moralische Empathie entwickelt. sollte es wirklich einmal so weit kommen, dann sind intelligente Algorithmen weiterhin nicht in der Lage, eine Vorstellung ausserhalb ihres Paradigmas zu abstrahieren. ihre Möglichkeiten bleiben an Notwendigkeiten des rationalen Operierens gebunden und somit können sie nicht wie der Mensch für eine universalistische Vorstellung die Abstraktion eines Ausserhalb entwickeln der Mensch kann sich einer rationalen Komplexität bloss begrenzt anpassen, allerdings komplexen Phänome sehr gut intuitiv erfassen.. es bleibt einer artifiziellen Intelligenz wohl für immer erspart, ein sich jeder Ordnung entziehendes, da vorausgehendes Eines kalkulieren zu müssen.


ungewissheit des universalen

kann es Wissen ohne ein menschliches Bewusstsein geben? es müsste ein universelles Wissen sein, das auf abstrakt verbindlichen Anschauungsformen beruht und auch für eine extraterrestrische Intelligenz zu verstehen wäre. als die NASA erstmals in Kupfer gestochene Informationen über die Erde mit einer Sonde in den Weltraum schickte eine Plakette in der Sonde Pioneer 10 zeigt in der oberen Ecke ein Wasserstoffmolekül, darunter die Postion der Erde im Weltall und daneben zwei nackte Menschen mit Grössenangaben., gingen Wissenschaftler noch davon aus, dass jede Intelligenz sich auf Naturgesetze beziehe und überall dieselben strukturellen Relationen erfasse.
mittlerweile erwartet man nicht mehr, dass menschliche Verallgemeinerungen über Regularien der Natur für eine fremde Intelligenz per se nachvollziehbar sind. Wissen ist an Sinnfragen und einen konkreten Lebensvollzug gebunden. als Vermögen sich etwas repräsentativ anzueignen, charakterisiert es mehr einen kognitiven Phänotyp als die ihn umgebende Realität und es scheint unwahrscheinlich, dass ausserirdische Bewusstseinsformen auf dieselbe Weise wie der Mensch eine Wirklichkeit erfassen. sie werden wahrnehmbare Determinationen in einem kognitiven Eigensystem modellieren, das aus ihrer Sicht universell ist und nicht unseren Anschauungen entsprechen muss. eventuell haben sie sogar völlig andere Vorstellungen von Raum und Zeit, so dass sie gar nicht in einem gleichen Universum existieren Auffassungen über Raum und Zeit haben sich ebenso bei uns Menschen mit religiösen und wissenschaftlichen Weltbildern unentwegt gewandelt und werden es auch in der Zukunft weiterhin. .


einsamkeit im denken

für Kant war eine subjektive Selbstreflexion konstitutiv für das Denken, wda erst ein alle Vorstellungen begleitendes Ich es ermögliche, mentale Akte zu bündeln. seine primär auf Erkenntnisgewinn ausgerichtet Subjekt-Auffassung ignorierte dennoch das Begreifen von inneren Erfahrungen und damit den Einfluss von Gefühlszuständen, von Wünschen und Absichten auf mentale Prozesse.
wahrscheinlich hat Kant jenen Bereich absichtlich ausgeblendet, weil ihm klar war, dass im Unterschied zur wahrgenommen Aussenwelt immanent vorliegende Empfindungen kein begriffenes Wissen darstellen bei Kant begreift der Verstand nicht einzelne Empfindungen, er deduziert nur abstrakt ihr Bestehen. . als inhärente Verfassungen können sie nicht wie wahrgenomme Objekte intentional im Denken repräsentiert, bloss sui generis analysiert werden. wer insofern emotional sein Denken introspektiv zu bedenken versucht, geht daher das Risiko ein, sich selbst ein Fremder, ein einsamer Intimissimus in einem unfokussierbaren Horizont zu sein doch je mehr der Mensch erkennt, desto mehr wird er auch sich selbst erkennen. wäre es nicht der Fall, würden Erkenntnisse irgendwann ein unmenschliches Wissen werden..


glauben im wissen

der Mensch strebt nicht nur nach Wissen, sondern ebenso nach Gewissheit. und dies ebenso, wenn es kein sicheres Wissen, sondern nur einen Glauben geben kann. eigentlich würde es ausreichen, wenn Erkenntnisse sich nicht zweifelsfrei begründen lassen, nur eine Meinung zu haben. wo für universelle Relationen nicht sämtliche Implikationen eruierbar sind, bleiben sie ein zweifelhaftes Erkennen, an dessen Geltung geglaubt werden muss. ein solcher Glaube ist die Hoffnung, dass dem Verstehbaren trotz mangelnder Überprüfbarkeit eine unbedingte Geltung zukomme. aber wo es um das Unbedingte, also um das Absolute geht, beginnt bereits das Dogmatisieren.
das rationale Denken kann nicht auf den Glauben an das Absoluten, an eine unbedingte Einheit im Denken verzichten, jene Unbedingheit bloss als Anspruch behaupten das absolute Wissen als die höchste Stufe bildet bei Hegel erst den Rahmen für die Beantwortung der Frage nach der höchsten Erkenntnis.. würden Theorien sich nur auf konkret Vorliegendes beziehen, bliebe kein Raum mehr für Abstraktionen, welche über das Faktische hinausgehen.


vakante superposition

warum darf in einem populären Gedankenexperiment von Erwin Schrödinger eine Katze eine leibhaftige Superposition einnehmen Schrödinger inthronisiert derart eine fiktive Katze zu einer unkalkulierbaren Lebensform, um ein Problem der Quantentheorie zu verdeutlichen.? obgleich sie sich im Gegensatz zum Menschen in den eigenen Schwanz beissen kann, wird es ihr immer an der Fähigkeit mangeln, ihr Dasein in ein kosmologisches Weltbild zu transzendieren. über eine solche Fähigkeit verfügt bislang einzig der Mensch. erst er schafft es, dank seiner intelligiblen Anschauung die Wirklichkeit mit all ihren Mannigfaltigkeiten als eine Einheit zu begreifen. sogar eine Welt quantenmechanischer Wahrscheinlichkeiten vermag er wie ein Gott zusammenzuhalten, seitdem es der Quantenphysik gelingt, fluktuierende Wechselwirkungen in eine überschaubare Kohärenz zu bringen. dies aber meist zu dem Preis, dass azu Wirklichkeit unwirklicher wird und so ist auch Schrödingers Messapparat ein isoliertes System, ein System ohne starke Wechselwirkungen mit seiner Umgebung, was nur einer Situation entspricht, die es tatsächlich nicht gibt..


kontinuum des geistes

können Tiere denken? vermutlich besitzen alle Säugetiere und zahlreiche Vogelarten ein intentionales Bewusstsein, das dem menschlichen ähnelt bis ins 17. Jahrhundert hinein galten Tiere noch als eine Sache. Descartes sprach ihnen sogar jegliches Gefühlsleben ab.. Insekten wie Bienen oder Ameisen, die über ein sehr kleines Gehirn verfügen, vollbringen als Individuen in einem organisierten Staat sehr effizient intelligente Leistungen, und ohne zentrales Nervensystem können Einzeller seit Millionen von Jahren unter verschiedenen Bedingungen gut angepasst überleben.
die Natur durchzieht wohl ein Kontinuum des Geistes, das sich mit der Evolution als intelligentes Verhalten vielfältig und unabhängig voneinander verwirklicht hat. zur Transzendenz befähigt stellt der Mensch allein eine bedingte Variante von diesem Vermögen dar. seitdem er zu seiner Umwelt sich mit einem abstrakt universellen Wissen distanziert positioniert, ist seine Intelligenz auch dazu verdammt, seine Lebenswirklichkeit abgekoppelt von einem Diesseits zu transzendieren.


anschauung als apriorie

braucht das Denken die Anschauung eines koordinierbaren Raumes? da sich gewohntermassen die Aussenwelt nur derart in der Wahrnehmung darstellt und erkennen lässt, muss die Frage bejaht werden. ohne eine solche Anbindung müssten Vorstellungen von der Wirklichkeit und Begriffe über sie ins Leere laufen. es reicht nicht aus, das Gegebene als eine topografische Ordnung strukturell zu relationieren, nur mit Zahlenverhältnisse zu erfassen in der modernen Mathematik werden Räume derart als abstrakte Strukturen behandelt, die mit unterschiedlichen Konzepten der Dimension begrifflich definiert, aber nicht vollständig durch Axiome fundiert werden..
für Kant waren Raum und Zeit apriorische Bedingheiten, welche nicht den äusseren Erscheinungen zu Grunde liegen und in ihrer Spezifik eine Eigenheit der menschlichen Kognition darstellen. die bewährte Dreidimensionalität unseres Anschauungsraumes lässt sich nicht damit begründen, dass die physische Welt selbst über eine solche Struktur verfügt. es ist eher davon auszugehen, dass die Wirklichkeit nur räumlich erscheint und nicht von einem vorliegenden Koordinatenkreuz reguliert wird. das vom Menschen erzeugte Bezugssystem ist ein mutables Konstrukt, das als euklidische Geometrie, topologisch Ordnung oder hyperbolische Mannigfaltigkeit eine geordnete Anschauung schaffen kann.
bei manchen Tieren garantiert bereits eine zweidimensionale Verortung die schnelle Orientierung, und es wäre vorstellbar, sogar eindimensional das Umgreifende, wie bei einer Turingmaschine als linear durchlaufende Datenspur zu erfassen. das sich mit seinen Sinnesorganen und dem Hirn evolutionär entwickelte Wahrnehmungsvermögen hat spezifische Raumvorstellungen für das Überleben von Organismen herausgebildet. nur der Mensch ist nicht daran gebunden. sein Wahrnehmungsapparat kann die eigene biologische Disposition reflexiv übersteigen, so dass auch ein angeborenes anisotropes Raummass, das Tiefen weiter entfernt zeigt, korrigierbar ist ein lediglich widerspiegelndes Erfassen der Umwelt wäre immerhin eine auf Sinnesdaten recht begrenzte Wahrnehmung..
mit dem Vermögen körperliche Verhältnisse zu abstrahieren lässt sich die Anschauung erweitern und mit mathematischen Modellen sogar bis ins Unendliche mannigfaltig kalkulieren wird die Orientierung als eine Wechselwirkung mit Qualitätsänderungen verstanden, können eingehende Daten dahingehenden modelliert werden, dass sie eine Anpassung durch Lernprozesse darstellen, die effizient sich eigene Anschauungsräume konstruieren.. so werden nicht nur Wahrnehmungsverzerrungen ausgeglichen und Erfahrungshorizonte modellhaft auf kosmologische Grössen erweitert, sondern der Anschauungsraum generell mit rein topografischen Verhältnissen relativiert. womöglich lassen sich räumliche und zeitliche Vorstellungen irgendwann durch explizit topologische Abstraktionen komplexer kompensieren und sind dann nicht mehr der primäre Ausgangspunkt für kognitive Prozesse.


künstliche wirklichkeiten

was künstlich ist, kann nicht natürlich sein. es ist nichts urwillig Gewordenes, sondern etwas Gemachtes. es liegt gehegt und gepflegt in einem Garten mit einer beabsichtigten Wuchsform vor. dafür werden Pflanzen gezüchtet oder ihr Erbgut genetisch so verändert, dass ausgewählte Potentiale in Biotopen stärker zum Zuge kommen. derartige Otimierungen bestimmen ebenso zunehmend naturwissenschaftliche Experimente, wenn in Laboren zu untersuchende Phänomene aufwendig selektiert werden.
diffizile Zusammenhänge lassen sich bei physikalischen Prozessen erst erkennen, wenn eine wild wuchernde Komplexität überschaubar, d.h. reduziert vorliegt. umso exakter Wissenschaftler operieren, desto weniger haben sie es fallweise mit einer natürlichen Wirklichkeit zu tun. für Versuche in Hightech-Laboren, Blasenkammern und Teilchenbeschleunigern werden sogar Bedingungen geschaffen, die als Normalität äusserst selten oder überhaupt nicht vorkommen der Wissenschaftstheoretiker Ian Hacking behauptete sogar, dass Forscher manche Effekte im Experiment erst erzeugen. dennoch bleiben für ihn auch solche Untersuchungsobjekte reale Entitäten, insofern es sich um kausale Agenten handelt.. das technologische Potenzial bestimmt hier, was konkret epistemisch zu rechtfertigen ist, und das epistemische Potenzial, was technologisch relevant sein kann die Unterscheidung zwischen Natürlichkeit und Künstlichkeit wird dabei irrelevanter und mehr eine phänomenologische Beschreibungsweise..
Giambatista Vico erkannte schon vor 300 Jahren, dass Menschen nur das richtig verstehen, was sie selbst hervorgebracht haben in seiner "Scienza Nuova" stellt Vico der scholastischen Auffassung: Verum est ens – das Sein ist die Wahrheit ein Verum quia factum entgegen.. damit stellte er nicht nur die antike Überzeugung in Frage, dass jede techne auf eine episteme, also alles Handlungswissen auf ein kontemplatives Wissen beruhe, vielmehr zeichnete er unter dem Handlungswissen, das produzierende als das aus, welches primär zu Einsichten führt.


technik als prüfstein

die Technik ist zum Prüfstein des Wissens geworden und, wo sie erfolgreich Theorien in eine praktische Anwendung transformiert, auch das Zertifikat für wissenschaftliches Know-how. dies wird besonders deutlich, wenn technologische Erfindungen mit ihrem Entwicklungspotential zu einer Sinnstiftung der Forschung werden. sie entscheiden in Laboren mit entsprechender Präzision und nachhaltiger Reichweite nicht nur über die Berechtigung einer Theorie, sie verkörpern sie mitunter geradezu schon Gaston Bachelard meinte, dass technische Instrumente tatsächlich die Verkörperungen von Theorien sind, die sie überprüfen..
in einer kontingenten Umwelt haben sich Technologien als basaler Mechanismus der Kontrolle bewährt. wo sie physikalische Prozesse in kausal fixierten Abläufe halten oder wie beim Licht vorgeben, ob es als Strahl, Welle oder gebündelter Quantenzustand fungiert, binden sie wirksam zukünftige Erwartungen der moderne Mensch hat sich mit Technologien eine Wirklichkeit erschaffen, die er nur noch mit Technologien begreift.. selbst Misserfolge führen nicht stante pede zu Neuorientierungen, eher zum optimierten Ausbau von technischen Systemen und irgendwann gar zu einer ganzheitlichen Technospäre.
für Arnold Gehlen war der Mensch als Mängelwesen dazu verdammt, sich mit der Technik entsprechend seinen steigenden Bedürfnissen die Umwelt zu gestalten. da dies nicht unproblematisch geschieht, muss man ebenso argwöhnen, dass Technik nicht eine notwendige Mängelkompensation sei, sondern wie der Soziologe Helmut Schelsky reklamierte als eine Überschussleistung letztendlich mehr Probleme schafft als löst eine raumgreifend sich entwickelnde Technik kann zur Entstehung eines technolgischen Metasystems führen, das sich erfolgreich in Konkurrenz zu Bio- und Geosphäre herausbildet..


grenzen der arithmetik

unter den Wissenschaften ist zuerst die Physik dazu übergegangen, die Mathematik als Grundlage für ihrer Theorien zu nutzen so wurden bereits die axiomatischen Ansätze der Mathematik zum Vorbild für die axiomatische Formulierung der klassischen Mechanik.. wo Phänomene der Natur sich als Regelmässigkeiten ermessen lassen, konkretisieren sich Strukturaffinitäten als algebraisch abstrakte Relationen. nur haben Übereinstimmungen nicht ihren Grund in berechenbaren Naturgesetzen, denen Teilchen gehorchen, sondern vielmehr darin, dass sich Quantifizierungen und algebraische Realtionierungen, mit denen physikalische Prozesse modelliert werden, für das menschliche Erkennen bestens verstehen lassen.
Zählen setzt ein Beobachten und das Beobachten einen Beobachter voraus. die Realität ist nicht von sich aus gemäss der Abzählbarkeit ihrer Objekte geordnet und lässt sich nicht immer quantitativ erfassen. jede Berechnung ist nur so gut und brauchbar, wie sie formelhaft die Verhältnisse der Natur berücksichtigen und darstellen kann. wo Algorithmen nichtlineare und chaotische Komplexitäten zu kalkulieren haben, können, wie bereits beim Bahnverlauf von drei annähernd grossen Körper, mit elementaren Funktionen Prozesse nicht ausreichend kalkuliert werden das Zweikörperproblem ist durch die Keplerschen Gesetze lösbar, während die Integrale ab drei Himmelskörpern keine algebraischen Lösungen mehr ergeben können. es scheint unmöglich, ein vierdimensionales Vektorenkonglomerat numerisch zu erfassen..
es besteht kein Zweifel daran, dass die Natur weitgehend symbolisch und auf diese Weise mathematisch beschreibbar ist. die Mathematik ist eine kompakte Sprache, mit der sich wissenschaftliche Modelle formulieren und auf eine logische Konsistenz hin überprüfen lassen. ohne eigene physikalische Realität schafft sie mit ihren Strukturen kalkulierbare Möglichkeitsräume, um Hypothesen zu verfeinern und um darüber hinaus Vorstellungen wie die des Unendlichen und des Irrationalen denkbar zu machen das mathematische Kontinuum war bereits in der griechische Antike ein detailliert ausformuliertes Thema für den philosophischen Diskurs.. es ist ungewiss, ob die Mathematik nur ein Handwerkszeug des Physikers ist, mit dessen Hilfe sich das Universum beschreiben lässt, oder ob die Realität selbst eine abstrakt berechenbare Struktur konkretisiert und somit Physik und Mathematik am Ende eins sind oder es einmal werden?


nach der wissenschaft

was wird es nach der Wissenschaft geben? da die Wissensproduktion als soziale Praxis Weiterentwicklungen unterliegt, muss konsequenterweise irgendwann eine qualitativ neue Form für ein Erkenntnissstreben erreicht werden. das wissenschaftliche Denken hatte mit welterklärenden Mythen seine Vorläufer und wird für den positivistisch rationalen Ansatz der heutigen Wissenschaft ebenso Nachfolger finden.
es ist absehbar, dass zukünftige Erfolge bei der Genese von Begründungszusammenhängen vorrangig mit technologischen Innovationen und besonders mit den Potentialen einer künstliche Intelligenz erreicht werden KI-Technologien können nicht nur menschliche Routineleistungen nachbilden, seit einigen Jahren auch autonom Datenlagen analysieren und werden vermehrt in heuristische Aufgaben eingebunden.. bereits jetzt sind ohne Hightech-Apparate, mediale Veranschaulichungen und digital sich steuernden Datenverarbeitung kaum noch massgebliche Entdeckungen möglich. in naher Zukunft organisieren bestimmt intelligente Algorithmen als strukturelle Mannigfaltigkeiten die Wissensproduktion und erfassen dann für den Menschen in schwer überschaubaren topografischen Räumen gänzlich autonom Kausalordnungen in einer hyperdimensionalen Topografie kann der Mensch Strukturzusammenhänge nur bedingt als eine faktische Gegebenheit wahrnehmen, wo sie seine Imaginationskraft schnell überfordern.. vielleicht wird es einmal unvorstellbar sein, dass ein technologischer Fortschritt an die Beschränkung einer anthropologischen Vorstellung gekoppelt war.


vagheit des logischen

das Dogma des logischen Denkens ist das Prinzip der Widerspruchsfreiheit. lange verband die klassische Logik jene Forderung mit der ontologischen Binarität von Sein oder Nichtsein, so dass etwas nicht zugleich als wahr und falsch vorliegen konnte. inzwischen reicht ein solcher Bezug nicht mehr aus, wo ein Schlussfolgern komplex detaillierte Sachverhalte umfasst und gehäufter Inkonsistenzen Hempels Paradoxon oder die Cantorsche Antinomie verdeutlichten bereits im letzten Jahrhundert problematische Grenzen der Logik. akzeptieren muss.
um dem zu entgehen, nutzen erweiterte Logiksysteme seit Frege den logistischen Freiraum der Mathematik und quantifizieren Argumente sowie Schlussfolgerungen mit Kalkülen solche Ansätze fanden ihr Fundament bereits im spätmittelalterlichen Nominalismus bei William von Occam.. ohne ontologischen Bezug darf man hier gegen den Satz vom ausgeschlossenen Dritten verstossen oder einfach mit intentionalen Aspekten der Alltagssprache operieren. die Fuzzy-Logik ermöglicht es, auch mit statistischen Berechnungen die Vagheit eines Möglichkeitsraumes zu verifizieren. Unschärfen werden dabei wie bei einer Wetterprognose mehr oder weniger präzis als graduelle Wahrscheinlichkeiten erfasst, so dass sie sich diskret berechnen lassen.
bei Peirce wurde das logische Operieren selbst das Dritte. dafür führte er, in Analogie zu seinem triadischen Zeichenmodell, die logischen Terme des absoluten, des einfachen und des konjugativen Relativen ein. der ontologische Status des Relativen wird zu einem informellen Sein, das sich rein aus strukturellen Beziehungen ergibt ein sich daraus ergebendes Informiert-Sein beansprucht als eine konkrete Wirklichkeit ebenso einen ontologischen Status.. mit diesem Ansatz konnten kybernetische Modelle die ontologische Binarität von Sein und Nichtsein in immer komplexere Verhältnisse aufspalten und multilateral relativieren Gotthard Günther zeigt, dass eine Polykontextualität mehrere Bezugsrahmen behandeln kann, ohne dass eine Selbstreferenz in logischen Zirkeln strandet ( A New Approach to The Logical Theory of Living Systems, Chicago 1972)..
technologische Innovationen profitieren inzwischen im Bereich der künstlichen Intelligenz ungemein von einer solchen Weiterentwicklung. aber ebenso die Naturwissenschaften, seitdem sie sich weniger an einem ontologisch fundierten Wahrheitsbegriff gebunden fühlen. sie können selbstbezüglich Modelle entwickeln und mit ihnen Phänomene als poietische Prozesse beschreiben. das komplexe Schlussfolgern ist mit der Öffnung zum mannigfaltig Strukturellen ein vages Unterfangen geworden, da es immer mehr Rechenkapazitäten beansprucht und eine Wette auf zukünftige technologische Entwicklungen wird.


universell ohne horizont

mit Abstraktionen und formalen Verallgemeinerungen versucht das wissenschaftliche Denken zu einem universellen Wissen zu kommen. nur kann es einen Sachverstand des Universellen überhaupt für den Menschen geben? ein Gesamtzusammenhang, der physikalische Prozesse als Raum- und Zeitrelationen strukturiert, wäre einzig für einem Laplaceschen Dämon vollständig erfasst. eine endliche Intelligenz muss sich damit begnügen, Wechselwirkungen der Natur als rationale Zusammenhänge stufenweise aufzudecken. dabei ist ein derartiger Anspruch ebenso ein bodenloses Ansinnen, denn zum einen sind die Naturwissenschaften, wie es provokant Heidegger reklamierte, nicht gewillt oder in der Lage, ihr Wissensgebiet grundlegend zu definieren Heideggers Einwurf, dass die Wissenschaft nicht denken kann, war weniger ein Vorwurf als vielmehr eine hinterfragte Anspruchshaltung. (Was heisst denken? 4. Aufl. Tübingen: Niemeyer 1984, S. 4)., und zum anderen ist kein absehbares Niveau zu erwarten, das sie zu einer abschliessenden Kohärenz mit einem dementsprechend komplexen Rahmen kommen lässt.
solange es etwas zu deuten gibt, solange das Wesen der Dinge und ihre Erscheinungsformen nicht unmittelbar zusammenfallen, muss es wohl akzeptiert werden, dass fortwährend komplexere Probleme, weitere Formen des Nichtwissens und paradigmatische Krisen evoziert werden nach Marx wäre alle Wissenschaft überflüssig, wenn das Wesen der Dinge und ihre Erscheinungsformen unmittelbar zusammenfallen (Kapital III, MEW 25, 825.).


wissen prognostizieren

Kant hat drei Arten des Fürwahrhaltens unterschieden: den Glauben, das Meinen und das Wissen. seitdem heuristische Strategien verstärkt an Erwartungen auf zukünftige Entdeckungen und vor allem an ein technisches Know-how gekoppelt werden, müsste das Prognostizieren als vierter Modus hinzugefügt werden. wo allgemeingültige Wahrheiten nicht mehr zeitunabhängig und ohne Unwägbarkeiten, d.h. bei technologischen Erfindungen nicht ohne Risiken zu haben sind, bleibt das Wissen um rein faktische Wechselbeziehungen unzureichend. jener Herausforderung kann erst ein epistemisches Prognostizieren gewachsen sein, das in und mit einem künftigen Entwicklungsstand operiert bislang werden dafür Prognosen erstellt, die ässerst schwer kalkulierbar sind und mehr auf Ahnungen beruhen..
in einer Zeit des permanenten wissenschaftlichen Fortschritts, wird bislang wie an der Börse auf Entwicklungspotentiale, auf die künftige Geltung von Wissen umso mehr spekuliert. eine derartige Prätention orientiert sich weniger am tatsächlich Vorliegenden als vielmehr an einem zu erwartenden Zuwachs an Erkenntnissen für die Forschung ergibt sich somit ein Perspektivenwechsel, der weniger von Voraussetzungen als vielmehr von vorstellbaren Ergebnissen geprägt wird.. für solche Orientierungen sind nicht nur ständig höhere Bemühungen zu investieren, es ist auch ein Kredit zu zahlen, der zu einer hohen Verschuldung führen kann, insofern mit jeder Antwort sich neue Fragen ergeben und nachhaltig Unwägbarkeiten vor allem bei technischen Forcierungen zu erwarten sind.


kausale simplifikationen

die Technik ist für Kausalitäten ein ideales Medium. bereits mit wenig Aufwand gelingt es, in geregelten Kreisläufen natürliche Effekte separiert zu optimieren und damit zielorientiert zu nutzen. eine solche Konsolidierung garantiert stabile Abläufe mit konstanten Energieverteilungen, kann aber zu einem Korsett werden, wo Maschinen prozesshaft in einem spezifischen Setting operieren und bei steigenden Optimierungen Abläufe aufwendiger zu isolieren sind derartige Optimierungen müssen, um Bestand zu haben, regelmässig gewartet werden oder sich automatisch regulieren..
für technische Optimierungen gibt es in der Natur selten adäquate Vorlagen. der Mensch schafft dafür erst die nötigen Bedingungen und seine Leistung besteht nicht darin, stabile Ursache-Wirkungs-Beziehungen entdeckt zu haben, sondern in der Lage zu sein, die Voraussetzungen ihres Zustandekommens zu reproduzieren. dafür können Handlungsspielräume konzipiert werden, insoferen es gelingt, Effekte nachhaltig einzubinden und von unerwünschten Einflüssen fernzuhalten.
für Luhmann waren technische Artefakte kausale Simplifikationen, welche nur für bestimmte Ereignisse Zukunftsbindungen erlauben Technik konstruiert für Luhmann eine kausale Simplifikation für einen Erwartungszusammenhang, der sich auf eindeutig funktionierende Ursache-Wirkungs-Beziehungen beschränkt. und somit ein reduziertes Wissen verkörpern, das bei wechselnden Ansprüchen auf fortwährende Innovationen angewiesen bleibt. ein solches Defizit ist auch bei Entwicklungen der künstlichen Intelligenz zu konstatieren, insofern sich hier komplexe Prozesse auf festgelegte Anwendungen forcieren. obwohl inzwischen grosse Erfolge beim Schach bzw. Go-Spiel und in der Datenverwaltung erzielt werden, gibt es bisher keine eigenständige Weiterentwicklung als autonome Reproduktionen im Sinne einer Koevolution müssen sich kausale Beziehungen als Manipulation allzu optimiert profilieren, sind im Sinne einer Koevolution keine Selektionsprozesse möglich.. die Potentiale der künstlichen Intelligenz bleiben an menschliche Erwartungshaltungen gebunden und damit eine Hybrid von Kulturleistungen.


inkonsistente gesamtheit

das Wirkliche der Wirklichkeit muss mehr als die Gesamtheit aller Tatsachen sein, über das Feststellbare hinausreichen. der Mensch will es so, um das Ganze von realen Zusammenhängen als eine Wahrheit hypostasieren zu können. obwohl sich komplex Gegebenes nur als Vielfalt und nie allumfassend konsistent denken lässt, wird grundsätzlich vorausgesetzt, dass auf einer Metaebene, in einem noch nicht erfassbaren Gefüge von Relationen eine allesumfassende Kohärenz frei von Widersprüchen vorliegt was als Ausschnitt widersprüchlich erscheint, soll dem holistischen Verständnis in einem umfassenderen Verbund stringent zusammenpasen..
für Nikolaus Cusanus war in seiner Lehre von der coincidentia oppositorum jede Welterfassung eine perspektivische und keine abschliessende, da sich unter verschiedenen Blickwinkeln gleiche Dinge unterschiedlich darstellen. erst eine letzte Wahrheit, welche für ihn nur eine göttlich absolute sein konnte, würde alle Differenzen aufheben eine letzte Wahrheit muss über Perspektivität und den mit ihr verbundenen Gegensatzcharakter auf Nicht-Kontrarietät hinausgedacht werden (Kues: Die belehrte Unwissenheit. Buch III).. eine solche Wahrheit als unbedingte Nullperspektive ist für den Menschen jedoch unerreichbar und muss eine vorstellbare Wunschvorstellung bleiben, während das Reale überdeterminiert vorliegt und womöglich gar keinem Konsistensgebot folgt.


veritatives irren

das wissenschaftliche Denken bleibt auch bei einem wachsenden Wissenshorizont auf ein Mutmassen angewiesen. wer unentwegt das Universum zu begreifen versucht, muss auch bereit sein, in die Irre zu gehen. stösst er auf einen Irrtum, der sich nicht darauf reduziert, das Gegenteil einer Wahrheit sein kann ein Irregehen verweist zumindest auf die Fähigkeit zur Unterscheidung zwischen falsch und richtig. der Mensch verfügt über eine kognitive Kompetenz, die sich nicht einfach in der Übereinstimmung zwischen Erkenntnis und Wirklichkeit erschöpft, sondern sich vielmehr weltbildend durch Intentionalität und Kontrafaktizität und Pluriperspektivität sein Umfeld erschliesst. , kann ein Irrtum unabhängig von einer vertretenen Überzeugung einen heuristischen Wert darstellen und ein Türöffner für neue Denkansätze sein.
für die Protagonisten des kritischen Rationalismus wurde das Irren sogar mit dem Trial-and-Error-Prinzip zu einer unfehlbaren Erkenntnisinstanz für Karl Popper vollzog sich der Erkenntnisfortschritt vor allem durch dieses Prinzip, das zuvor von Herbert Spencer Jennings und W. Holmes für evolutionäre Prozesse in der Biologie als Begriff geprägt wurde.. man meinte, mit einem eruierbaren Irrtum die Asymmetrie von Verifikation und Falsifikation vermitteln zu können. konsequenter Weise müsste ebenso ein Prinzip der Falsifizierbarkeit davon ausgehen, dass es sich hierbei um einen irrtümlichen Ansatz handeln könte, mithin Erkenntnisprozesse nicht persistent falsifizierbar sind.


immanenz der strukturen

obwohl ein alles umschliessendes Universum das übersteigt, was sich bestimmen lässt, ist der Mensch in der Lage, dafür eine Vorstellung zu entwickeln. er kann seine Wahrnehmung transzendent übersteigen und wird bei komplexen Wechselbeziehungen im Mikro- oder Makrobereich nicht auf das Offensichtliche einer greifbaren Wirklichkeit beschränkt. um Dynamiken als essentielle Washeit (quidditas) zu erfassen, reicht es mitunter aus, das Messbare als variable Struktur zu taxieren. Relationen zwischen den Dingen werden zu einer essentiellen Washeit (quidditas) und erschliessen dann für einen erkenntnismässigen Zugang neue Wesenheiten.
doch was stellen überhaupt Strukturen dar? sie beschreiben einerseits als Orientierungsrahmen zu untersuchende Phänomene und werden andererseits als Relationen der Wirklichkeit vorausgesetzt. somit sind sie ein Raster der menschlichen Wahrnehmung und zugleich unterstellter Sachverhalt bei natürlichen Prozessen. wo die Realität für den Menschen überdeterminiert vorliegt, muss es sich mithin nicht um identische und nicht einmal um analog korrespondierende Verhältnisse handeln.
eine von Aristoteles ausgehende und im neuzeitlichen Rationalismus weiterentwickelte Ontologie wollte eine Logik des Seienden sein und übertrug, um eine umfassende Erkennbarkeit zu behaupten, logische Strukturen auf die Sphäre allen Seins. eine solche Universialisierung gelingt mit Weltbildern, welche häufig beliebig erfunden werden, um irgendwann wie der alte Zeus-Glaube wieder verworfen zu werden. solange nicht fraglos zu klären sei, ob logische Strukturen ebenso der Natur immanent sind, gehörten sie für Vertreter des kritischen Realismus wie Nicolai Hartmann eher in eine ideale Sphäre Nicolai Hartmann in Grundzüge einer Metaphysik der Erkenntnis (1921).
ein spekulativ neuer Realismus geht mittlerweile davon aus, dass die Welt neben konkret vorliegenden Entitäten ebenso aus immateriellen Fiktionen des Denkens bestehen muss da man wahre Aussagen über nicht-existierende Dinge formulieren kann, hat Meinong bereits 1904 vorgeschlagen, dass unser Universum nicht nur von real existierenden Objekten bevölkert wird, sondern abstrakte und imaginäre Entitäten mit einschliesst.. für deren Protagonisten und besonders für Graham Harman haben immaterielle Fiktionen des Denkens eine gleiche Existenzberechtigung wie empirische Tatsachen Graham Harman: "Speculative Realism – An Introduction",Cambridge 2018. ein Gedanke über ein abstraktes Bild ist somit kein Epiphänomen, sondern genauso real wie der neuronale Zustand eines Gehirns im Moment der Betrachtung. mit einer solchen ontologische Grosszügigkeit werden die Bereiche des Seins interferent gesehen, auf dass sich der Dualismus von Geist und Materie überwinden lässt. ein solcher Pluralismus hat auch den Vorteil, dass die Realität ohne einen bestimmbaren Bezug zwischen transzendentaler Vernunft und Emperie als eine instant wahr gegebene vorliegt die Vernunft ist für jenen Realismus nur noch Vermögen und nicht notwendig an Subjekt-Objekt-Beziehungen gebunden. sie kann, wenn sie das nicht Erdenkliche der Welt fabuliert, phantasiert oder fingiert, sich rein spekulativ entfalten..


riskantes knowhow

was kann der Mensch nicht wissen? was soll er nicht erstreben? und was darf er sich nicht erhoffen? wenn Chancen und Risiken bei technologischen Entwicklungen sich unabsehbar bedingen, ist es wichtig zu wissen, was man nicht erkennen kann und trotz intensiver Forschung nicht ausreichend zu validieren vermag.
seitdem wissenschaftliches Knowhow vermehrt mit technischen Entwicklungen verknüpft wird, nehmen unberechenbare Eingriffe in natürliche Kreisläufe zu seit einigen Jahrzehnten gravierend im Bereich der Chemie, Biologie und durch KI-Anwendungen für die soziale Infrastruktur. nachhaltige Probleme lassen sich daher seltener voraussehen oder können bei einer grösser werdenden Eindringtiefe von technologischen Innovationen nur ambivalent erfasst werden. bei einem wachsenden Wissensstand benötigen Entscheidungs- und Handlungsprozesse eine stetig höhere Absicherung, welche vermehrt kollektive Ressourcen verschlingt oder bei Unwägbarkeiten wie der Gen-Manipulation zu juristischen Verboten führt bei schwer zu prognostizierenden Risiken wird die Forderung, manches Wissen restriktiv zu unterbunden, vehementer vorgetragen..
Aristoteles hat der Kreativität enge Grenzen gesetzt. er plädierte für eine Priorität der Verwirklichung gegenüber dem kontingent Möglichen, so im Seienden lediglich das hervorgebracht werden kann, was angelegt ist Wissen im engeren Sinne gab es für Aristoteles nur von unveränderlichen Sachverhalten. dafür hat er Wirk-, Material-, Zweck-und Formursachen ausgewiesen.. Eingriffe in die Natur können immenante Potentiale aber nur nutzen, wenn daraus resultierende Effekte abgeschätzt und kompensierte werden könnten. dabei sind Spekulationen auf künftige Entwicklungen, die nachhaltige Schäden wieder ausgleichen, nicht legitimierbar. vor der modernen Wissensschaft versuchte die Philosophie der Antike das Geschehen der Wirklichkeit schon als Ganzes zu erklären. man ging mit arg begrenzten kognitiven Mitteln davon aus, dass Denken und Sein dasselbe seien. Wahrheiten hatten dafür als etwas Unveränderliches in einem Kosmos vorzuliegen, während das ontologisch nicht Einordbare als Trug abgelehnt wurde in der überlieferten Fassung kann der Satz von Parmenides: dass Denken und Sein dasselbe seien derart gemeint sein. der Grund für das Denken sind demnach existierende Seinsformen, während das ontologisch nicht zu ordnende als Trug abzulehnen ist..


topografie des denkens

aus einem Hier und Jetzt heraus entfaltet sich das Denken und ist von einem Subjekt, der Perspektive eines reflektierenden Ich nicht abzulösen. dennoch kann der Ort des Denkens nicht auf Personen eingegrenzt werden und ebenso wenig auf die Schallwellen gesprochener Sätze, das Feuern von Neuronen oder die sozialen Effekte einer Sprache.
für Descartes existierte ein Bewusstsein im Gegensatz zum Körper nicht in einem Raum, sondern in der Zeit die Zeit war für René Descartes ein Modus des Bewusstseins. (Princ. philos. III, 3). wenn bis heute unterschwellig an seiner problematischen Trennung zwischen denkender und materieller Substanz festgehalten wird, so um geistige Prozesse nicht reduktionistisch zu fundieren, als vorrangig biochemische Reaktionen oder soziale Verhaltens- und Sprachspiele analysieren zu müssen. dem Denken liegen immerhin mentale Prozesse zu Grunde, die sich als Epi-Phänomene irreduziebil übersteigen. eine solche Emergenz, welche auch die eigene körperliche Präsenz umfasst, generiert heterotopische Virtualitäten in einem unbestimmbaren Möglichkeitsraum mentale Akte beanspruchen als aufgeschobene oder ausbleibende Reaktionen eine komplexe Virtualität.. für selbstbewusste Reflexionsprozesse wird fortwährend eine Welt beansprucht, welche die Wirklichkeit übersteigt und bei einem stetig wachsenden Wissensumfang vielleicht irgendwann nicht mehr in sie hineinpasst.


anspruch auf eine weltformel

die theoretische Physik hat ihre Hoffnung, mit einer Theory of Everything die Wirklichkeit zu erfassen, mittlerweile aufgegeben. oder zumindest aufgeschoben, da der Wunsch, den Geltungsbereich von Erkenntnissen in eine systematische Gesamtheit zu bringen, wohl schon zu lange ein menschlicher Traum ist seitdem man die erkennbare Wirklichkeit mit Weltbildern imaginiert, gibt es auch Versuche, diese idealistisch, naturalistisch, phänomenologisch oder finalistisch zu begründen..
obwohl die verstehbare Wirklichkeit nie Realität komplett umfassen kann, wird an dem Prinzip von einem universellen Wissen festgehalten. diese Prätention konsequent abzulehnen, wäre ein Verrat an einem transzendentalen Denken, dessen Potentiale nicht völlig zu durchdringen sind. da das menschliche Vernunftvermögen fortwährend zu qualitativ neuen Gewissheiten kommen kann, ist es wahrscheinlich, dass Erkenntnisse in einer fernen Zukunft nicht den Rahmen einer systematischen Abgeschlossenheit erfornern und damit das Streben nach Wissen einen neuen Motivationsrahmen braucht.
die Vorstellung von einer Welt ist an ihre Erkennbarkeit gebunden und ihre Erkennbarkeit wiederum von einer vorstellbaren Welt bedingt. geht man davon aus, dass sich das Vorstellungsvermögen über Grenzen des Wissens hinwegsetzt, lässt sich das Universum weder mit noch ohne einen omnipotenten Anspruch, also der Idee von einer Theory of Everything, einer kohärenten Ordnung vollständig beschreiben bei Kants Unterscheidung zwischen einer Welt für uns und einer Welt an sich wird nicht der Gegensatz von unterschiedlichen Wirklichkeitsebenen herausgestellt, sondern vielmehr die vermittelbare Weise einer kognitiven Aneignung..


kosmische evidenz

bei Kant ist das moralische Gesetz im menschlichen Gemüt nicht ohne den bestirnten Himmel zu haben. die Unermesslichkeit des Universums und das subjektive Empfinden werden in eine antinomische Beziehung gebracht, um in der "Kritik der praktischen Vernunft" einen fulminanten Schlussakkord zu setzen das Universum, dessen Relationen man zu Kants Zeit vielversprechend zu erforschen begann, wurde in der "Kritik der praktischen Vernunft" als Inbild des ästhetisch Erhabenen zu einem Pendant für das verallgemeinerbar Sittliche. . von diesem Bezug geht eine erhebende Wirkung aus, da die Übergrösse der Welt die menschliche Einzigartigkeit als etwas Besonderes herausstellt. er kann aber ebenso kränken, wo universelle Weiten voller Kontingenzen die Empfindung aufkommen lassen, nur ein unbedeutendes Staubkorn in einer schieren Weltengrösse zu sein.
seitdem Raum, Zeit und Materie mit dem Paradigma der Quantenphysik nicht mehr als eine homogene Einheit aber auch das neuzeitliche Denken wird bereits von der Frage enerviert, ob Raum und Zeit eine eigenständige Existenz neben den Körpern zukommt. gesehen werden, stellt sich die Wirklichkeit gleichfalls als komplexe Unordnung dar. statt erkennbarer Determinismen liegen apriori-Wahrscheinlichkeiten vor, die erst geordnete Strukturen herausbilden, wenn sie jemand erfasst und in plausible Vorstellungen wie die eines Multiversums bringt. gelingt es nicht, wird der kosmische Blick für das nach Erkenntnis strebende Subjekt zu einer Erfahrung der eigenen Haltlosigkeit. zu einer Haltlosigkeit, mit der Erkennbares nivelliert wird. oder relativert, wenn innerhalb kosmischer Dimensionen das menschliche Vorstellungsvermögen seine Begrenzung als eine infinite Freiheit imaginiert, mit der alles möglich und ebenso gleich gültig sein kann der Kosmos liegt hierbei als eine Option vor, welche die eigenen Möglichkeiten zur Disposition stellt, ohne selbst zur Disposition zu stehen. .


falsifikation als evidenz

Theorien, welche sich erfolgreich in der Praxis bewähren, abstrahieren eine empirische Evidenz. sie bilden Wirklichkeitsausschnitte vorhersehbar ab und erweitern fortwährend den Wissensstand mit immer detaillierteren Erkenntnissen. nur um uneingeschränkt eine ausbaufähige Geltung beanspruchen zu können, erweisen sich solche Verallgemeinerungen nicht als zuverlässig genug. eine Theorie prüfen heisst daher nach Poppers Falsifizierbarkeits-Regel, vielmehr Verfahren finden, mit denen sich Wissen widerlegen lässt. da keine noch so grosse Anzahl von Überprüfungen zu zeigen vermag, dass eine Verallgemeinerung zwingend wahr sein kann, ist das Widerlegen einem Verifizieren vorzuziehen. dies trifft leider ebenso auf die Falsifikation selbst zu, die als erkenntnistheoretisches Prinzip kein Nonplusultra beanspruchen kann der Anspruch einer Falsifizierbarkeits-Regel muss auch hinterfragbar, d.h. selbst falsifizierbar sein. dies gilt vor allem bei einen empirischen Nachweis, der bei konkurrierenden Theorien stets widerlegbar ist.. es ist häufig der Fall, dass Ausnahmen umso besser eine Regel bestätigen, indem sie jene erweitern oder in ihrem Umfang beschränken.
um mit der Methode der Falsifikation zu einem garantierten Fortschritt in den Wissenschaften zu kommen, hat der Physiker David Deutsch vorgeschlagen, dass eine Theorie nicht nur falsifizierbar sein soll, sie muss auch Erklärungen bieten, bei denen es nicht möglich ist, sie einfach abzuändern, falls ihr neue Erkenntnisse widersprechen David Deutsch forderte dies in seinem Vortrag "A new way to explain explanation" (Juli 2009).. es soll verhindert werden, dass es Kompromisse durch invariable Modifikationen von Lehrmeinungen gibt, welche fällige Paradigmenwechsel blockieren.
wer derartig argumentiert, ignoriert einfach, dass neue Paradigmen als strukturell sich etablierende Perspektivenwechsel erst zu veränderten Sichtweisen führen und nicht per se empirische Widersprüche. ob unmittelbar evident oder erweitert durch präzisere Messinstrumente, bleibt die sinnliche Evidenz eine begrenzte Erfahrung und muss es auch akzeptieren, dass für jede Theorie mindestens eine Alternativtheorie vorliegen kann, welche durch dieselben empirischen Daten gestützt wird.


jenseitige perspektive

da die Realität das übersteigt, was sich bewusst erfassen lässt, bleibt die Vorstellung von ihr als Ganzes eine illusionäre Obsession. vorstellbar ist das Allesumfassende einer Wirklichkeit erst mit Analogien oder aus der abstrakten Position einer neutralen Perspektive. für Leibniz war die kosmische Gesamtheit bei einem begrenzten Horizont sogar an die Vielheit unterschiedlicher Perspektiven gebunden und in seiner Theodizee eine Eigenschaft von einzelnen Monaden, welche mit einem jeweils anderen Blickwinkel ganz viele Universa generieren da Monaden bei Leibniz in ihrer Perzeptionen so verschieden sind, stellt jede in ihrer Weise das Universum als ein jeweils eigenes Abbild dar..
Kant hat, um allgemeine Bedingungen für das Erkennen zu verorten, den perspektivisch universellen Blick wieder an den endlichen Horizont des Menschen gebunden. indem er nicht die Frage favorisierte, was etwas ist, sondern was die Bedingungen für mögliches Wissen über etwas sein können, wurde die Erkennbarkeit von Wirklichkeit erneut an das Bezugssystem des subjektiven Intellektes gebunden spätestens seit der Renaissance bezeichnet man in Analogie zur Erdkugel und zum Himmelsglobus die Gesamtheit der reinen Erkenntnisse als globus intellectualis. Kant versuchte dafür ein Modell zu entwerfen, mit dem die Grenzen menschlicher Erkenntnis zu bestimmen sind.. eine standpunktunabhängige Betrachtung ist damit nicht mehr obligatorisch. wenn der Mensch als Beobachter zweiter Ordnung mittlerweile seinen begrenzten Horizont besser einordnen und relativieren kann eine Beobachtung zweiter Ordnung bleibt dabei stets eine Beobachtung, die Beobachtbares nur beziehungsreich erfasst., wird er nicht in der Lage versetzt, von einem Jenseits aller möglichen Standpunkte der Realität zu erfassen auch jeder fiktive Standpunkt dafür ist stets ein Irgendwo, das bezügliche Parameter braucht..


hier und jetzt

etwas hic et nunc zu bestimmen, schafft konkrete Fakten. obwohl es immer und überall möglich ist, verweisen solche Bestimmungen aber nicht anhaltend auf dasselbe. bei manchen Elementarteilchen ist sogar nur für ein paar Millionstel Sekunden eine Zuordnung möglich. im Bereich des elementar Punktförmigen indexikalisiert scheint die Realität weder real noch lokal zu sein..
kurzlebige Entitäten erfordern ein äusserst präzises Sensorium, und mitunter werden sie allein durch Berechnungen erfasst, wie bei den ephemeren Higgs-Teilchen, welche mit beinaher Lichtgeschwindigkeit fliegend niemals die kurze Strecke bis zu einem Detektor überdauern. einzig Zerfallsprodukte lassen sich von ihnen nachweisen in der Quantenwelt gibt es für elementare Teilchen zumeist eine Bestimmtheit, wenn ihr Möglichkeitsraum kollabiert., insofern nur in der Gegenwart etwas bestehen kann.


relativer metabezug

das wissenschaftliche Denken strebt nach Allgemeingültigkeit und findet sie vorwiegend bei beständig verlaufenden Prozessen. nur je genauer Zusammenhänge exploriert werden, desto mehr offenbaren sich Strukturaffinitäten als schwer zu kalkulierende Instabilitäten. selbst bei einfachen Systemen mit drei Körpern, sorgen in einer Himmelsmechanik Gravitationskräfte für so komplizierte Bahnkurven, dass geringste Änderungen zu nichtlinearen Rückkopplungen führen während das Zweikörperproblem durch die Keplerschen Gesetze analytisch lösbar ist, sind Integrale im Fall von mehr als zwei Himmelskörpern nicht mit elementaren Funktionen berechenbar..
für wissenschaftliche Ansprüche können Prozesse erst ermittelt werden, wenn man Phänomene auf überschaubare Faktoren mit einfachen Abhängigkeiten reduziert. bei komplex dynamischen Abläufen, die wie in der Thermodynamik oder Biologie stark abstrahierende Betrachtungen erfordern, gelingt es nicht immer, dafür marginale Relationen zu erfassen. nichtsdestotrotz werden in den Naturwissenschaften universell wirkende Strukturen für alle Phänomene der Wirklichkeit unterstellt. mit mathematischen Modellen und digitalen Simulationen erhofft man sich, auf diese Weise Korrelationen im immer grösserem Umfang zu analysieren. und mitunter gelingt dies erst, wo Effekte einer Selbstorganisation unterstellt werden es wird eine Universalität der Strukturbildung unterstellt, mithin Zustandsänderungen bei physikalischen, chemischen und sogar biologischen Systeme nach den gleichen Regeln ablaufen und in mathematische Formeln erfasst werden können.. verbindliche Regelmässigkeiten müssen sich dann nicht mehr aus den Eigenschaften einzelner Entitäten, den Konstituenten der Materie ableiten, sie sind mit der Vorstellung von einer Gesamtheit als systemische Eigendynamik oder sogar als negative Entropie beschreibbar der Begriff negative Entropie wurde von Erwin Schrödinger geprägt und beschreibt Prozesse, die Entropie exportieren, um ihre eigene Entropie niedrig zu halten..
das wissenschaftliche Denken ist darauf angewiesen, Ordnungen zu beanspruchen, welche als Strukturgefüge allgemeingültig sind bei Kant war die Allgemeinheit noch ein ausschlaggebendes Kennzeichen für eine objektive Gültigkeit von Aussagen und Begriffen.. obwohl der Verstand dazu neigt, seinen Standpunkt zu wechseln und Wahrgenommenes damit relativiert, braucht er einen verlässlichen Rahmen. oder einen imaginärten Metabezug, der vor einem infiniten Regress des blossen Aufeinanderbeziehens von Ansichten zu bewahrt.


mass des denkens

die Wirklichkeit ist zu mannigfaltig und reltiv für allgemeingültige Wahrheiten. der nach Orientierung strebende Mensch kann die Faktizität des Realen nur gemäss seiner Verhältnisse erfassen und wird so, wie einst Protagoras feststellte, zu einem Mass aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind der von Platon überlieferte Homo-mensura-Satz des Protagoras wird je nach Übersetzung der Konjunktionen subjektivistisch, sensualistisch oder relativistisch interpretiert. dabei unterschlägt man gern die grundlegende Bedeutung, welche sich mit dem Wort Mass ergibt.. dabei ist das menschliche Erkennen ein Bestimmen und kein Wissen von den Dingen selbst, insofern im Universum eine Sinnhaftigkeit nicht an sich vorliegt, lediglich relative Verhaltensweisen von Teilchen und Feldern, die aus ihnen zugrunde liegenden Beziehungsstrukturen Ziele und Zwecke generieren.
wer das Wirkliche im Rahmen eines Kosmos, Multi- oder Megaversum mit seinen Bezugsgrössen massnimmt, erhält niemals ein unmittelbares Abbild, nur seinen Messverfahren entsprechende Relationen von Naturphänomenen. Realität üblicherweise bezieht sich das Wort Realität auf den Bereich, der unabhängig vom Bewusstseinszustand existiert. wird in der Form erkannt, in der sie durch Abstraktionen und Symbolisierungen zugänglich ist, meist reliabel bestimmt durch Zahlen und syntaktische Strukturen des Ausdrückbaren. auf diese Weise lässt sich zwar gleichfalls das nicht Erfassbare mit der Annahme einer allumgreifenden Gesamtheit variabel explorieren die Idee eines universellen Zusammenhanges kann nur eine Präsumtion sein, die sich im Nachhinein zu rechtfertigen hat., welche aber latent als einender Grund vorausgesetzt werden muss. erst so sind Bezüge zu und zwischen den seienden Dingen überhaupt möglich.


lücke im rationalen

ob die Realität in ihrer Komplexität als eine erkennbare vorliegt oder nicht, ist eine schwer zu beantwortende Frage. aber noch schwieriger ist es zu klären, warum es eine solche Frage überhaupt geben kann. die Frage nach einer Erkennbarkeit beansprucht eine Differenz zwischen dem, was erkennbar ist, und dem, was nur erahnt werden kann. dabei wird deutlich, dass Erfragtes bereits als ein Mutmassen vorliegt. wo sich etwas dem Verstehen entzieht, bleibt indes das menschliche Denken lückenhaft und kann sich kein erstes und letztes Wissen beziehen solche Lücken kann genaugenommen auch kein vorgestellter Laplacesches Dämon füllen..
dies müsste frustrierend sein, ist es aber nicht, solange der Verstand beim logischen Schliessen zu synthetischen Urteilen gelangt. es ist möglich, den vorliegenden Wissensstand immer wieder zu einer zusammenhängenden Gesamtheit, einer behaupteten Annahme, wie die von räumlichen und zeitlichen Mannigfaltigkeiten, zu verknüpfen. dafür braucht es nichts weiter als das Narrativ, dass überhaupt kohärente Zusammenhänge in der Wirklichkeit vorliegen. um die Realität als Totalität in eine Vorstellung zu bringen, versucht der Mensch sich fortwährend Standpunkte zu imaginieren, mit denen er sich vorstellen kann, eine Welt ausserhalb des eigenen Fliegenglases zu betrachten der Fliege den Ausweg aus dem Fliegenglas zu zeigen, war für Wittgenstein immerhin das Ziel der Philosophie..


sinn des sinnlosen

sinnlose Aussagen, wie die semantische Antinomien "ich lüge" oder "ich existiere nicht", sind weder falsch noch wahr. sie bilden einen Nebeneffekt generischer Potentiale von Grammatiken und können in jeder Sprache artikuliert werden. Vertreter des Logischen Empirismus haben sich an Propositionen, die keine Verifizierbarkeit zulassen, lange Zeit die Zähne ausgebissen und sie irgendwann als unwissenschaftliche Aussagen verwerfen wollen so rät A.J. Ayer in "Wahrheit, Sprache und Logik": falls sich nicht prinzipiell angeben lässt, wie man über Wahrheit bzw. Falschheit entscheiden kann, sollen Aussagen als wissenschaftlich sinnlos verworfen werden.. dabei stellen sinnlose Sätze auch ein Vermögen des Denkens dar, mithin zu erwarten ist, dass sie das Potenzial für neuartige Reflexionszusammenhänge haben und zu Erkenntnisgewinnen führen. Diskurse, die bloss evidente Sinngehalte zulassen, begrenzen hingegen das Denken auf ein Begründ- und Begreifbares. sie umfassen lediglich das, was folgerichtig der Fall sein kann.
um Widersprüchen bei unstimmig erscheinenden Tatsachen auf den Grund zu gehen, braucht es ebenso Sprachpotentiale, welche eine Dualität von wahr und falsch unterlaufen. erst so lässt sich mutmassen, was noch keinen Wahrheitskriterien unterliegt. auch streng wissenschaftliche Orientierungen können bei der Sinngebung Sätze ohne Wahrheitsgehalt nicht völlig ablehnen. die Wirklichkeit als unbedingbare Einheit übersteigt das Begreifbare, und sie muss es immer wieder, damit sie bei Pradigmenwechseln ein sinngebendes Fundament für Erkenntnisprozesse bleibt.


transzendente anmassung

wenn es alles gibt, was es geben kann, warum dann nicht direkt als erkennbare Tatsachen? die Frage scheint vermessen zu sein, da den Horizont des menschlichen Verstehenwollens ein endlicher Lebensbezug begrenzt. die Auffassung von einer allumfassend erkennbaren Realität kann wohl nur eine Hybris sein es lassen sich Gewissheiten mit der Ungewissheit lediglich in ein ambivalentes Verhältnis bringen, so dass auch die Vorstellung von einer Begrenzung in Raum und Zeit in eine Grenzenlosigkeit hineinpasst..
Kierkegaard machte für eine solche Vermessenheit die Leidenschaft der menschlichen Ungeduld verantwortlich für Kierkegaard war es das höchste Paradox des Denkens, etwas entdecken zu wollen, das es selbst nicht denken kann. (in Philosophische Brocken). die Auffassung von einem überbordenden Alles ist das Höchste, was der Mensch zu transzendieren vermag. insofern es aber keine henologische Perspektive und keine empirische Basis für dieses Ansinnen gibt und wahrscheinlich niemals geben kann, bleibt auch das Streben nach Welterkenntnis als ein Ungrund der Ungrund ist nach Jakob Böhme kein denkbarer, vielmehr ein existentiell zu lebender Grund. das Fatum des menschlichen Verstehenwollens.


© frank richter, 2016-19