alles als wissen


die hyperbolik universeller ansprüche


"...im Grunde geht es immer nur um die Herstellung von Metaphern..."

Heiner Müller

totale als urgrund

was sich erkennen und verstehen lässt, muss immer irgendwo hineinpassen. dafür muss die Einbildungskraft sich einen fulminanten Rahmen schaffen. doch wie mächtig muss jener sein, damit das, was jederzeit und an jedem Ort der Fall ist, invariant umfasst wird? es kann sich bei dem Anspruch, für die Vielfalt des Erkennbaren eine All-einheit zu verallgemeinern, wohl nur um eine bodenlose Vermessenheit handeln, um eine Anmassung, die eine Unbeschränktheit zum Prinzip erhebt eine solche Prätention kennt keine Begrenzung, so dass die Leitfrage der Ontologie: "Was gibt es?" einfach mit "Alles" beantwortet werden kann (siehe Willard Van Orman Quine, "On what there is", 1948)..
Thales von Milet war der Überlieferung nach der erste griechische Philosoph, der einer ontologischen Totale einen Urgrund gab, indem er das Ensemble der göttlichen Mythen zu einem substanziellen Alles destillierte. sein Ansatz war sehr erfolgreich und verpflichtet, obwohl nur auf Wasser gebaut, bis heute das Denken auf das Phantasma bei Thales bekommt die Totale mit dem Urstoff Wasser alert eine mystische Bedeutung und ist somit auf keine rationale Begründung angewiesen. eines Verstehenwollens mit einem absoluten Einen.


unmögliche nullperspektive

obwohl erst die Vorstellung von einem allumfassenden Ganzen eine universelle Orientierung garantiert, soll eine Gesamtheit die Wirklichkeit nicht als Totalität begrenzen. sie darf keine geschlossene Einheit sein, nur ein Einendes, das universell uneingeschränkt bleibt. das wissenschaftliche Denken ist auf eine solche Offenheit angewiesen, um sich unentwegt selbst überschreiten und aus einer Distanz heraus überblicken zu können. dies gelingt am einfachsten mit einem weltanschaulichen Entsprechungsverhältnis, das eine Nullperspektive als fundamentum inconcussum postuliert.
nur ist eine solche Position genau genommen eine unmögliche Perspektive, da sie einen archimedischen Punkt ausserhalb des Wissbaren beansprucht. Descartes meinte jenen Standpunkt mit seinem hyperbolisch alles hinterfragenden Zweifel gefunden zu haben. doch wo ein radikaler Zweifel zum Prinzip erhoben wird, geht konsequenter Weise irgendwann jede Gewissheit, selbst die des Zweifelns verloren bereits Augustinus stellte fest, dass selbst wenn jemand in allem irrte, er dennoch ein Irrender sei (Si fallor, sum. in De civitate dei, XI. 26).. der cartesische Zweifel führt nicht zu einem unbedingten Wissen, insofern es zwangsläufig ausgeschlossen ist, an allem zu zweifeln und gleichzeitig in allem getäuscht zu werden Descartes konnte seinen Zweifel letztendlich nur als Methode behaupten..


kosmische evidenz

bei Kant ist das moralische Gesetz im menschlichen Gemüt nicht ohne den bestirnten Himmel zu haben. die Unermesslichkeit des Universums und das subjektive Empfinden werden in eine antinomische Beziehung gebracht, um in der "Kritik der praktischen Vernunft" einen fulminanten Schlussakkord zu setzen das Universum, dessen Relationen man zu Kants Zeit vielversprechend zu erforschen begann, wurde in der "Kritik der praktischen Vernunft" als Inbild des ästhetisch Erhabenen zu einem Pendant für das verallgemeinerbar Sittliche. . von einem derartigen Bezug geht eine erhebende Wirkung aus, mithin die Übergrösse der Welt die menschliche Einzigartigkeit als etwas Besonderes herausstellt. er kann aber ebenso kränken, wo universelle Weiten voller Kontingenzen die Empfindung aufkommen lassen, nur ein unbedeutendes Staubkorn in einem Weltengetriebe zu sein.
seitdem Raum, Zeit und Materie nicht mehr als eine stringente Einheit das neuzeitliche Denken wird von der Frage bestimmt, ob Raum und Zeit eine eigenständige Existenz neben den Körpern zukommt. gesehen werden, stellt sich die Wirklichkeit auch als eine komplexe Unordnung dar. statt erkennbarer Determinismen liegen zu modellierende Wahrscheinlichkeiten vor, welche erst Ordnungen herausbilden, wenn sie jemand erfasst und in plausible Vorstellungen wie die der Urknalltheorie oder die eines Multiversums bringt. gelingt es nicht, wird der kosmische Blick für das nach Erkenntnis strebende Subjekt zu einer Erfahrung der eigenen Haltlosigkeit. der Anspruch einer ontologischen Transzendenz devaluiert sich, wo Erkennbares mit einer Differenz immanenter Bezüge zunehmend relativiert. innerhalb kosmischer Dimensionen imaginiert dann das menschliche Vorstellungsvermögen seine Begrenzung als eine infinite Freiheit, mit der alles möglich sein kann und sub specie aeternitatis beliebig erscheint der Kosmos liegt hierbei als eine Option vor, welche die eigenen Möglichkeiten zur Disposition stellt, ohne selbst zur Disposition zu stehen. .


streben nach vollständigkeit

vielleicht impliziert nur das menschliche Verlangen nach Vollständigkeit die Vorstellung von einer universellen Weltgesamtheit phänomenologisch wird Welt gern als grösster Horizont verstanden, welcher die Peripherie aller Entitäten umfasst . es ist nicht zwangsläufig davon auszugehen, dass die Realität dementsprechend geschlossen vorliegt. ihr könnte genauso gut ein unfertiges, inkonsistentes Werden zugrunde liegen, eine Genese mit bloss temporären Regelmässigkeiten, die sich dem Anschauungsvermögen per se entzieht und nur als ein abstraktes Entsprechungsverhältnis erahnt werden kann.
obwohl sich ein menschliches Transzendenzvermögen nur auf Grund- als Grenzerfahrungen beziehen kann, endet die Vorstellung von einem Universum nicht immanent an der Endlichkeit erfassbarer Welterfahrungen. wie beschränkt auch das Erkenntnisvermögen sein mag, seine Reichweite bleibt grundsätzlich offen und kann jedes Aussen durch Phantasie mutmassend antizipieren. damit die Vorstellung von einer Vollständigkeit des Universums nicht aufgegeben werden muss, wird das Universale heute sogar im Plural als Multiversum Parallelwelten werden in der Philosophie seit der Antike unter formalen Gesichtspunkten als logische Beispiele oder hypothetische Annahmen für physikalische Prozesse erörtert. bzw. viele-Welten-Konglomerat konzipiert.


verum et factum

um Naturwissenschaft betreiben zu können, braucht es die Vorstellung von kausal wirkenden Kräften. auch wenn sie als Wechselwirkungen der Materie nicht konkret ermittelbar sind, wird daran festgehalten. wer sich darüber hinwegsetzt und die verursachende Verknüpfung verwirft, weil sie zu vielen Komplikationen führt, gerät wie einst Bertrand Russel in eine Erklärungsnot, solange er nicht äquivalente Alternativen für kausale Relationen vorzuweisen hat Bertrand Russell schlug 1912 in "The Problems of Philosophy" vor, das Wort Ursache aus dem Wortschatz der Philosophie zu streichen. .
obwohl mathematische Modellierungen für natürliche Phänomene im Mikro- und Makrobereich mittlerweile ziemlich präzise Vorhersagen liefern, liegt bis heute kein akzeptables Konzept vor, das Beziehungen zwischen Ursachen und Wirkungen universell erfasst. alle Versuche, jenes Defizit zu füllen oder zu umgehen, beanspruchen zu unterschiedliche Theorien und lassen sich interdisziplinär nur schematisch typisieren lange wurde ein objektiver Kausalitätsbegriff mit einem naiven Naturalismus verbunden, dem diverse zirkuläre Ansätze des Konstruktivismus und der Systemtheorie folgten, aber ebenfalls nicht zu befriedigenden Lösungen führten. .
in der Wirklichkeit liegen zu mannigfaltig verschachtelte Verknüpfungen von Abhängigkeiten vor, so dass Ursachenketten selten zu separieren sind. selbst vielversprechend probabilistische Interpretationen, die mannigfaltige Verhältnisse als strukturelle Wahrscheinlichkeiten verstehen, können bei komplexen Prozessen nur begrenzt Erklärungen für Prognosen bieten kausale Beziehungen sind auch hier Vereinfachungen, mit denen Verhältnisse modellhaft universalisiert werden. . sie sind allerdings als Referenzrahmen ein aussichtsreicher Ansatz für das Verstehen mannigfaltiger Wechselwirkungen für David Hume war die Gewohnheit ein solcher Referenzrahmen, der dazu verleitet, für die Zukunft Ähnlichkeitsbeziehungen aus der Vergangenheit abzuleiten. .
man könnte davon ausgehen, dass sich der Begriff der Verursachung aus der menschlichen Erfahrung eines zweckmässigen Handelns abstrahiert hat. nicht die Beobachtung von Veränderungen in der Wirklichkeit, sondern das Streben, sie für eigene Ansprüche zu managen, scheint für den Gedanken einer ursächlichen Verbindung grundlegend zu sein. dafür reicht es aus, dass sich Kausalitäten experimentell in einem festgelegten Setting von Effekten isolieren und technologisch Prozesse optimieren lassen.
als einer der ersten hat sich Giambattista Vico gegen die Vorstellung gewandt, dass eine methodische Wissenschaft die Natur in toto erfassen kann. von der vergleichenden Rechtsbetrachtung eines Hugo Grotius ausgehend, vertrat er die Überzeugung, dass die Geschichte der primäre Gegenstand des Wissens sei. der Mensch könne daher nur die Phänomene bewusst begreifen, die er selbst hervorbringt (verum et factum convertuntur), während die Natur nur der erkennt, der sie erschaffen hat Vico hat in seiner "Neuen Wissenschaft" wohl bereits 1725 den Weg für einen konstruktivistischen Methodenbegriff der Moderne geebnet.. mit einem solchen Ansatz, der eine wesentliche Verwandtschaft zwischen Erkenntnisobjekt und -subjekt radikal einfordert, würde einzig ein Homo ludens das Verbindliche und Einende der Wirklichkeit verstehen, indem er es realiter nachzubauen oder virtuell zu simulieren vermag.


diskrepantes relativieren

wer universell denkt, stellt sein Wissen in komplexe Bezüge und relativiert mit wachsendem Wissensstand fortwährend Zusammenhänge und Prinzipien. schlimmstenfalls erscheint ihm irgendwann alles Erkennbare als relativ wahr. doch die Feststellung, dass alles relativ sei, ist unakzeptabel, solange sie ohne ein absolutes Fundament selbst relativierbar ist. die Aussage, dass alles, was als wahr gilt, nur relativ wahr sein kann, muss hingegen akzeptiert werden. Relativität kann sich immer nur auf Gegebenes beziehen und kein absolutes Prinzip verkörpern.
der Relativismus als philosophische Denkrichtung hat es nie leicht gehabt, insofern er selten als Denkstil überzeugte und zudem sich mit der klassischen Logik schlecht verträgt. er ist entweder inkonsistent, wo er alles als relativ deklariert, ausser die eigene Position, oder trivial, wenn er allgemein postuliert, dass Wahrheitsansprüche nie sicher sein können wer die Wahrheit von Aussagen und Prämissen als bedingt ansieht, muss auch bereit sein, sich selbst zu relativieren und dieserart bezähmen. ein Gesamtzusammenhang lässt sich nicht auf die Beziehungen seiner Bestandteile, d.h. allein auf relationale Bezüge reduzieren. er beansprucht immer auch die Wahrheit einer fiktionalen Wesenheit, welche nicht relativiert werden darf.


fragilität des wissens

wo Naturwissenschaften umfänglicher Erkenntnisse produzieren, geht der Überblick selbst in lang überschaubaren Bereichen wie der Botanik oder Geologie verloren. mehr Knowhow in der Forschung führt unweigerlich zu Strategien der Ausspezialierung, mit denen Perspektiven für Entdeckungen komplexer und meist unkalkulierbarer werden.
langfristig gesehen kommen Wissensdisziplinen mit ihren Entdeckungen wohl zu keiner abschliessenden Auflösung, so dass neue Erkenntnisse stets zu neuen Warum-Fragen oder einem relativierenden Aber führen Durchbrüche wie etwa die Entzifferung des menschlichen Genoms können einen besonderen Entdeckergeist wecken, aber ebenso desillusionierend wirken, wenn deutlich wird, dass es noch weiterer Quantensprünge bedarf, um beim Klonen tatsächliche Erfolge in der Humanmedizin zu erzielen. . sogar technische Erfindungen, die sich mit wissenschaftlichen Entdeckungen erfolgreich etabliert haben, sind nicht unfehlbar und mit wachsenden Unwägbarkeiten beanstandbarer denn je in vielen Bereichen der Naturwissenschaften werden deshalb die Grenzen zwischen Wissen und Nichtwissen durchlässiger.. Risiken des technologischen Fortschritts müssen heute mit viel digitalem Aufwand prognostiziert und reguliert werden, so dass die Beherrschbarkeit technischer Systeme zunehmend Ressourcen verschlingt.
ein Anwachsen von Wissens erzwingt in postmodernen Wachstumsgesellschaften einen Bedeutungsgewinn und zunehmend Bedeutungswandel des Nichtwissens. der Gegensatz von Gewissheit und Ungewissheit verliert an Trennschärfe und führt zu einer schwer überschaubaren Bedingtheit und Verflochtenheit. es ist ein ewiges Katz-und-Maus-Spiel, das für eine Mobilität von Entwicklungen sorgt, die weniger planbar werden.


immanenz des zufalls

seit der Antike ist das Bestreben ungebrochen, mit Verallgemeinerungen das erkennbar Wirkliche einheitlich zu deuten. dabei wird latent vorausgesetzt, dass Unordnungen konträr zu Ordnungen stehen, und gleichzeitig als überkomplexer Zustand ein immanenter Bestandteil von ordnenden Strukturen sein können. die Vorstellung von einem absoluten Zufall ist dafür unerlässlich, von einem impliziten Zufall, der als ontologische Kategorie zwischen der erkennbaren Ordnung und Unordnung fungiert ein absoluter Zufall muss ein Zufall sein, der grundlos ausserhalb von jeglichen kausalen Zusammenhängen zustande kommen. .
das Chaotische, weil vielleicht als Determination noch Verkannte oder per se Fluktuative, kann im grossen Ganzen erst in der Dreierbeziehung Ordnung-Zufall-Chaos in eine akzeptable Kohärenz gebracht werden unter den Naturwissenschaftlern ging Heisenberg erstmals davon aus, dass es im subatomaren Bereich keine Determination und damit absolute Zufälle geben müsse.. um fortlaufend entscheiden zu können, was strukturiert in welcher Form vorliegt und was nicht, braucht das naturwissenschaftliche Denken ein Vermittelndes, das sich jeder Zuordnung entzieht. derartiges kann eigentlich nur ein Zufall leisten, der weder imaginier- noch symbolisierbar ist und damit als nicht definierbares Medium universell die Unterscheidung von Ordnung und Chaos garantiert.


offene gewissheit

irrtümliche Annahmen führen nicht zwangsläufig zu falschen Erkenntnissen. sie können sich bei einer falsch interpretierten Faktenlage rein zufällig als wahr erweisen und, wie Russell und Meinong bereits in der ersten Hälfte des 20. Jahrhunderts feststellten, dann nicht ausreichend begründet werden Russell bezieht sich in einem Beispiel auf ein Uhr, die stehengeblieben ist, aber zweimal am Tag die richtige Zeit anzeigt (Human Knowledge: Its Scope and Limits) 1948 und Alexis Meinong bezieht sich schon 1906 auf die Halluzination einer geträumten Windharfe, die unbekannterweise an einem Baum hängt.. in den 1960er Jahren ist Edmund Gettier diesem Problem in einem Aufsatz, der bis heute kontrovers diskutiert wird, dezidiert nachgegangen, um festzustellen, dass auch Gewissheiten fallibel eine Überzeugung rechtfertigen können, wenn sie etwa durch falsche Beobachtungen oder einfach mit Raten zustande kommen Gettier, Edmund L.: Is justified true belief knowledge? Analysis 23.6, Juni 1963..
die Geschichte der Wissenschaften bietet für die Vagheit von gerechtfertigtem Wissen einige kuriose Belege. so ermittelte Kepler aufgrund einer abstrusen astrologischen Analogie, dass der Mars zwei Monde besitzen müsse, insofern die Erde nur einen und der Jupiter vier hat, und lag damit richtig. Hegel beharrte gegen das Wissen seiner Zeit auf neun Planeten in unserem Sonnensystem und hat bis heute recht behalten, da nach der Degradierung des Pluto zum Zwergplaneten manche Astronomen wieder nach einem, noch unentdeckten Kandidaten suchen.
wo ein Wissen beansprucht wird, das sich universal an einem unendlichen Ganzen misst, sind nicht immer ausreichende Informationen für einen Sachverhalt zu bekommen und für ein konsistentes Weltbild auch immer weitere theoretische Modellierungen erforderlich. man könnte daraus schliessen, dass Wissen als wahre, gerechtfertigte Überzeugung selten vorliege. doch ist streng genommen auch eine solche Erkenntnis nicht unfehlbar, da sie ebenso wenig eine Gewissheit darstellt der wissenschaftliche Anspruch von Wahrheit benötigt immer den Zweifel als Korrektiv, so dass gewonnene Erkenntnisse stets hinterfragbar bleiben..


hyperkomplexes schlussfolgern

die Logik war für die Griechen im Gegensatz zu einer nur überredend-wollenden Rhetorik eine Instanz für das korrekte Argumentieren das ambivalente Verhältnis von Logik und Rhetorik war stets auch ein konfliktgeladenes und hat langfristig zu einer Logisierung der Rhetorik und zu einer Rhetorisierung der Logik geführt.. mit jenem Anspruch etablierten sie nachhaltig ein Schlussfolgern, das Verbindlichkeiten für alles und jeden einfordert, und seit Kant zunehmend transzendental verwendet zu einer allgemeinen Theorie des Denkens wurde. daran hat sich mit der Ablösung der Naturwissenschaften von philosophischen Grundsätzen wenig geändert, obwohl nach wie vor ungeklärt bleibt, ob ein logisches Operieren dem Menschen a priori gegeben ist oder nur ein Desiderat seines Sprachvermögens darstellt schon Rousseau fragte sich, ob die Menschen die Worte nötig ätten, um denken zu können, oder ob sie das Denken noch nötiger gehabt hätten, um die Kunst des Sprechens zu erfinden (Rousseau, Über den Ursprung der Sprachen, S. 153).
für naturwissenschaftliche Ansprüche hat sich ein logisch widerspruchsfreies Schliessen durchgesetzt, insofern es einen Konsens erbringt, der unabhängig von Personen und örtlichen Gegebenheiten Wissen verallgemeinert. dabei ist die Logik allgemein eine interaktive Praxis für das Kommunizieren geblieben und spezialisiert eine sich weiterentwickelnde Strategie für Erkenntnisansprüche. die Reichweite verringert sich allerdings, wo man Sachverhalte komplexer analysiert und bei einer sinkenden Halbwertszeit von Theorien sich der Wissensstand relativiert wo ein zusammenhängendes Regelsystem relational komplexer Aussagen angestrebt wird, engt es den Rahmen von Konklusionen ein und kann zu Paradoxien führen..
logische Theoreme beanspruchen mittlerweile immer mehr Erweiterungen, die wie bei der intuitionistischen oder mehrwertigen Logik überlieferte Prinzipien und Operationen ignorieren oder extendieren. damit erhöht sich die Zahl von Wahrheitsfunktionen und Ausnahmebestimmungen, so dass Regeln des Schliessens offener designt werden können. es lassen sich inzwischen mathematische Möglichkeitsräume konstruieren, die so komplex sind, dass sie nur Computerprogramme noch zu händeln vermögen. dies kann zu einer hohen Intransparenz führen so werden für mathematische Probleme Theorembeweise, die eine Software erstellt, nicht anerkannt, mithin sie sich einer Nachprüfung entziehen..


rekursiv definieren

das wissenschaftliche Denken favorisiert eindeutige Begriffe, um präzis und eindeutig zu argumentieren. allerdings sollten Begriffe nicht zirkulär definiert werden, damit sie nicht bereits das voraussetzen, was sie zu bestimmen haben. bei der Rekursion lässt es sich indes nicht vermeiden. wer den Begriff allgemein erklären will, behandelt ihn unweigerlich rekursiv das Erklären muss sich selber aufrufen und dabei konkretisieren.. wird es als Demonstration verstanden, hat man eine auf sich selbst angewandte Regel rekursiv veranschaulicht.
besser wäre es, derartiges mit einem Beispiel wie der Schneeflocke zu versinnbildlichen. hier wird augenscheinlich deutlich, dass sich idem per idem das Prinzip einer Konstruktion selbst konstruiert. eine Software, die solches für den Computerbildschirm darstellt, muss eine Abbruchbedingung begrenzen. ansonsten hängt sie sich in einer Endlosschleife auf. dies gilt ebenso für Metatheorien, die wie der kritische Rationalismus eine alles inkludierende Allgemeingültigkeit beanspruchen, aber nur bedingt auf sich selbst, also rekursiv angewendet werden dürfen bei Metatheorien hat die Klasse der Falsifikationsmöglichkeiten leer zu sein, insofern schon das Bestehen einer Falsifikationsmöglichkeit die Idee der Falsifikation zum Provisorium degradiert..


unverbindliche differenz

intuitiv verfügt der Mensch über mehr Wissen, als er mit Gewissheit anzugeben vermag. doch was nützt es, wenn er es nicht ausreichend zu explizieren vermag. ein intuitives Wissen, dass jenseits möglicher Erfahrung eine vorliegende Wirklichkeit erfasst, gerät in Schwierigkeiten, wenn es sich erklären muss. so wie Augustinus nicht ad hoc klarzustellen vermochte, was die Zeit ist, fällt es meist schwer, etwas das primär auf Anschauungen beruht, evident zu begründen für Augustinus war die Zeit deshalb eine subjektive Anschauung der Seele..
das menschliche Abstraktionsvermögen kann kosmische Dimensionen erfassen, lässt sich indes nicht immer mit Anschauungen synchronisieren. vielleicht fällt es deshalb schwer, bildliche Evidenzen auf eine viable Verbindlichkeit festzulegen. nicht einmal bei einer von einem Computerprogramm imitierten Mondrian-Komposition gelingt dies. auch hier werden ästhetische Erfahrungen initiiert, welche sich nicht allgemeingültig bestimmen lassen. die Unverbindlichkeit des Imaginierbaren trennt von dem Ausdrücksvermögen jeder generierbaren Abstraktion ein Spalt, der nicht mit Deutungen zu füllen ist. oder anders formuliert: die Möglichkeiten des Gestaltbaren übersteigen auf unerklärliche Weise immer die Potentiale des Interpretierbaren in seiner Schrift "Über die Seele" grenzt Aristoteles daher auch die Einbildung (phantasia) von der Wahrnehmung (aisthesis) und dem Denken (noein) ab (De an. 427 b 9-12..


wissen im rausch

wo Informationen auf einem Bildschirm von einem Rauschen unterdrückt, Gespräche durch ein Knacken gestört und Bilder zerpixelt werden, liegen Störungen vor. sie richten sich gegen eine festgelegte Funktionalität und können Gegebenes derart beeinflussen, dass es sich bis zur Unkenntlichkeit auflöst Störung werden meist als Abweichung von technischen Parametern und kommunikativen Erwartungen wahrgenommen.. solche Zerfallserscheinungen sind häufig das Ergebnis von interferenten oder entropischen Prozesse, die in digitalen Medien auch installierte Filter oder Impulskodierungen nicht zu bändigen vermögen. selbst bei mit Redundanzen arbeitenden Übertragungen kann es zu Abweichungen kommen, welche sich nur aufwendig oder gar nicht kompensieren lassen.
wird die Störung als Teil der Normalität angesehen, stellt sie einen Parameter dar, der hinzukommend eingreift und Erwartungen unterläuft. in einem chaotischen System, in dem alle möglichen Zustände Informationen wären, würde sich derartige Aberrationen der Wahrnehmung hingegen völlig entziehen. Störungen benötigen für ihre aisthesis die semiosis einer erkennbaren Ordnung, d.h. auch in hochkomplexen Systemen immer etwas weniger als alles Mögliche. ein exponentielles Wachstum an Informationen kann partiell Wissen verauschen und somit selbst als Störung angesehen werden die Zunahme von digital speicherbaren Information beeinflusst das Wissen dahingehend, dass es Wissen stärker differenziert und damit ebenso relativiert.. dabei lässt sich eine ausufernde Vielfalt immer schwerer auf die Einheit von grundlegender Ordnungen zurückzuführen.


erfinden statt finden

was heute als allgemeine Gewissheit gilt, kann morgen schon mit neuen Theorien und anderen empirischen Zugängen widerlegt werden. die Realität gibt im Grossen und Ganzen nicht vor, wie man über sie zu sprechen hat. das meinte jedenfalls Nietzsche, als er in seinem Aphorismenbuch "Jenseits von Gut und Böse" feststellte, dass Philosophen nichts finden, sondern primär erfinden "Jenseits von Gut und Böse", Kapitel 3, Erstes Hauptstück: Von den Vorurtheilen der Philosophen . konsequenterweise konnte für ihn Wissen nur noch ein Interpretieren sein. auch die Sinneswahrnehmung, die unsere Existenz orientierend fundiert, wird für ihn primär durch Interpretationen geleitet.
mit jener skeptische Haltung gab Nietzsche selbst das Argumentieren für eine radikale Orientierung auf und fabulierte stattdessen die Naturgeschichte als eine allzu menschliche Sinnsuche.


äpfel und birnen

man soll nicht Äpfel mit Birnen vergleichen. sie gehören in einem Obstladen verschiedenen Preiskategorien an und werden wie die Erkenntnisse von Geistes- und Naturwissenschaftlern in einer Alma Mater nach wie vor getrennt gewogen und ausgepreist.
doch wo zu ermittelnde Bezüge sich nicht an althergebrachte Redensarten halten und unbestimmt bleiben, ist ein Vergleichen unumgänglich. der Abgrenzung geht dann ein partielles Gleichsetzen voraus, was allseits ein allgemeines Relativieren erlaubt. dabei wird deutlich, dass alles vorliegend Mögliche miteinander vergleichbar ist. nur das von Philosophen veranschlagte absolut Vereinzelte, das völlig Alogische und in jeder Hinsicht Zufällige bei Hegel war es das reine Sein, das sich jeder Bestimmung entzieht., welches es für Naturwissenschaftler in einem Raum-Zeit-Kontinuum gar nicht geben kann, würde sich dem entziehen.


fokus der vagheit

ohne präzise Begriffe sind keine nachhaltig anschlussfähigen Theorien zu haben. doch kann es solche Theorien überhaupt geben? für Popper reichte es aus, dass ein Begriff nur so exakt vorliegen muss, wie es eine Problemsituation erfordere Karl R. Popper in seinem Exkurs über den Essentialismus (siehe: "Ausgangspunkte: meine intellektuelle Entwicklung").. allein der epistemischer Anspruch bestimmte für ihn, inwiefern bei Definitionen Präzisierungen oder Erweiterungen nötig werden.
mittlerweile sind frei vagabundierende Begriffe in komplexen Theorien unumgänglich geworden. sie müssen nur für ihren Anwendungsbereich zurechtgeschliffen werden und besonders passgenau dort, wo sie bei speziellen Aufgaben in den Ingenieur- und Naturwissenschaften zum Einsatz kommen. bei Plato waren Begriffe noch als Ideen in ewigseienden Urbildern fixiert und wurden derart lange Zeit als eherne Einheiten von Bestimmungen, Prinzipien oder Gegenstandsklassen benutzt die Scholastiker bemühten sich in diesem Sinne um eine strenge Disputationskunst. sie gingen davon aus, dass allgemeinen Begriffen (Universalien) eine wahrhafte Wirklichkeit zukommt. .
für Hegel, der an das platonische ontos on anknüpfend Wahrheit als eine Wirklichkeit begreift, enthielt die Bedeutung eines Begriffs zuweilen den gesamten Denkweg zu ihm hin und blieb dabei wie das wahre Ganze vieldeutig. auf jene Weise lassen sich bis heute philosphische Begriffe wie Knoten in einem Netzwerk verknüpfen, um in einem zu bedenkenden Möglichkeitsraum Fragen immer wieder neu zu stellen um zu neuen, weiterführenden Erkenntnissen zu kommen, denkt man mit der komplexen Vagheit einer Sprache und geht davon aus, dass jedes Raster, welches wie ein Netz über die erkennbare Realität geworfen wird, flexibel sich anzupassen vermag..
einen solchen Anspruch kann man in unserer Zeit kaum noch behaupten. wo die Halbwertszeit von Theorien sinkt, sind wissenschaftliche Heuristiken darauf angewiesen, sich ebenjener analytischen Mittel zu bedienen, von denen sie eigentlich eine Entlastung suchen. sie bleiben an die Vagheit der Sprache und die Vieldeutigkeit von stochastischen Modellen gebunden, so dass ihre Wahrheiten zunehmend zukünftig zu etablierende werden.


signifikante exempel

kein Lehrbuch der elementaren Logik kann auf den sterblichen Sokrates verzichten und beim Thema der Referenz keine Abhandlung auf den Abend- wie Morgenstern. das Exemplarische ist ein Probierstein des Denkens und gemeinhin ein rhetorischer Imperativ für die Urteilskraft. wo es schlagkräftig zu überzeugen gilt, wird so, sich im Kleinen auch die grosse Welt spiegeln muss, ein bestechendes sogar Beispiel zum Kriterium der Wahrheit. es hat dann abstrakte Gedanken nicht nur zu illustrieren, sondern muss wie bei Gilbert Ryle für eine dispositionale Analyse des Geistigen sogar definitiv Begrifflichkeiten untermauern Gilbert Ryle illustriert in "The Concept of Mind" mit sprachlichen Fehlzuordnungen Kategorienfehler, ohne dafür eine formale Definition vorzulegen..
was in den Naturwissenschaften das empirische Ergebnis eines Experiments übernimmt, leistet oft in den Geisteswissenschaften ein plausibel statuiertes Exempel. es wird für eine These oder wie bei den Gettier-Fällen Gettier zeigte mit simplen Beispielen aus dem Alltagsleben, wie die gerechtfertigte wahre Meinung auch durch einen Schluss aus falschen Prämissen zustande kommen kann. konträr eingesetzt, um die klassische Wissensdefinition in Frage zu stellen. da sich bei einer hermeneutischen Analyse Beweise nicht wie in der Mathematik entwickeln lassen, werden signifikante Exempel statuiert, um Wahrheitsfindungen zu untermauern. ohne sie würden manche Begriffe ihren Kontext verlieren und Theorien gegenstandslos bleiben. dabei darf freilich nicht vergessen werden, dass Beispiele nur unzuverlässige Argumente darstellen. sie können keine objektive Allgemeingültigkeit beanspruchen und wenig beweisen. indem sie lediglich für etwas Bestimmtes eine Vorstellung ermöglichen, bleiben sie vage Behauptungen für das Universelle.


praxis versus poesie

ein dualistische Verständnis von Theorie und Praxis verführt schnell zu einseitigen Präferenzen. dabei wird entweder eine praktische Überprüfbarkeit von Wissen oder die vorhergehende Reflexion favorisiert. Puristen der einen wie der anderen Seite begründen ihre Position allerdings oft praxisfern. denn Theorien wie die Newtonsche Mechanik oder die Wärmelehre wurden nicht aufgrund der zur Verfügung stehenden Daten entworfen und ebenso wenig sind Fakten in Laboren nur gesammelt worden, ohne dass dafür ein heuristischer Anlass vorlag.
jedem Laborieren und Herumtüfteln gehen seit jeher Überlegungen voraus, die auf Verallgemeinerungen zielen dass sich Tatsachen ohne theoretisch fundierte Beschreibungssysteme nicht ermitteln lassen, hat immer wieder zu Krisen des Empirismus, des Induktionismus und Positivismus geführt. , und es gibt kaum wissenschaftliche Konzepte, die ohne praktische Erfahrungen auskommen. nicht einmal die Mathematik erlaubt derartiges, weil sie ein händelbares Zahlenverständnis vor jeder Regelbegründung voraussetzt. das einseitig tendenziöse Privilegieren der Praxis gegenüber der Theorie oder umgekehrt ist vermeidbar, wenn man das Theoretisieren per se als Aktivität von transzendenter Lebensbesinnung versteht. d.h. als einen Akt, der sich in der Weise einer téchne als Poesie die Poesie ist immerhin ein fundamentales Alphabet des menschlichen Denkens und kann sich immer wieder als zuverlässiges Instrument zur Aufdeckung von unbestimmbaren Gründen erweisen. ereignet.


exklusives philosophieren

das philosophische Denken verliert zunehmend die Verbindung zum wissenschaftlichen Fortschritt. während es bei Aristoteles noch selbst Wissenschaft war und im Mittelalter sogar Königin der Wissenschaften, ist heute ein Erkenntnisstreben um seiner selbst willen entthront. seitdem Wissen primär an technologischen Erfolgen gemessen und durch Apparate in Laboren geprägt wird, hat die Philosophie als übergeordnetes Ressort abgedankt. sie kann mit ihren Denkansätzen den Wissenschaftsprozess seltener konkret beeinflussen und mit ihren Verallgemeinerungen kaum noch als Ganzes reflektieren eine allgemein erklärende Erkenntnistheorie stösst zunehmend an Grenzen, wenn sie fachübergreifend die Voraussetzungen und das Zustandekommen von Erkenntnissen zu thematisieren versucht..
wenn wissenschaftliche Ansprüche sich ausspezialisieren und in immer neueren Disziplinen Erkenntnisbereiche erfassen, werden Experten rar, die enzyklopädische Kompetenzen ausbilden und fachübergreifend durchzusetzen vermögen. Gaston Bachelard, der eine solche Forcierung bereits im vergangenen Jahrhundert voraussah, warnte daher, dass irgendwann jedes wissenschaftliche Problem, jedes Experiment, ja sogar jede Gleichung einer eigenen Philosophie bedarf Gaston Bachelard in "Die Bildung des wissenschaftlichen Geistes", 1938.


gefangen im konsens

in wissenschaftlichen Diskursen werden Erkenntnisprozesse nachvollziehbar kommuniziert. im Normalfall tauschen Koryphäen einer Denkschule Informationen und Überzeugungen unmissverständlich aus das Ziel wissenschaftlichen Arbeitens ist nach wie vor die systematische und nachvollziehbare Darstellung von Erkenntnissen.. erst Unstimmigkeiten führen dazu, dass über das Verhältnis zwischen dem, was jemand darlegen will, und dem, was ein anderer versteht, so lange dis- oder rekursiv verhandelt wird, bis sich ein Konsens kohärent einstellt.
kommt er nicht zustande, ist der Austausch meist von zu verschiedenen Kompetenzen und Interessenlagen bestimmt. darüber kann man sich ausgiebig auf Symposien und in internen Fachzirkeln verständigen. doch auch hier gilt, dass wo Wahrheitsansprüche erhoben werden, sich nur nachvollziehbar kommunizieren lässt, was im Grossen und Ganzen mit einem Konsens vermittelbar ist.


artifizielle independenz

eine künstliche Intelligenz operiert diskret auf der Basis rationaler Kriterien und kann sich daher bestens vernetzen. erst für die Kommunikation mit uns Menschen benötigt sie ein Interface, das symbolische Sprachelemente in konkrete Mitteilungen übersetzt. darauf sind ebenso Softwareentwickler angewiesen, da sie bei einer steigenden Komplexität von Operationen einem floatierenden Code im Detail nicht mehr zu folgen vermögen ein nur aus Binärzeichen bestehender Code ist die einzige Sprache, die ein Computer, aber bei komplexen Programmen immer seltener ein Mensch verstehen kann..
optimieren sich bei steigender Komplexität Software-Systeme abgekoppelt von einer menschlichen Obhut, operieren sie selbstbezüglicher auf einer virtuellen Ebene auch wenn ihnen bei virtuellen Operationen der Sinn für ihr Handeln fehlt. . irgendwann haben sie bei sich potenzierenden Verarbeitungs- und Speicherkapazitäten auch ein komplementäres Vermögen für doppelsinnige Sprachanalogien, das intuitive Problemlösen und vielleicht sogar eine moralische Empathie entwickelt. sollte es wirklich einmal so weit kommen, dann sind intelligente Algorithmen immer noch nicht in der Lage, eine Vorstellung ausserhalb ihres Paradigmas zu abstrahieren. ihre Möglichkeiten bleiben an die Notwendigkeiten des rationalen Operierens gebunden und somit können sie nicht wie der Mensch im Denken eine abstrakte Vorstellung für ein Ganzes entwickeln. es bleibt einer artifiziellen Intelligenz vielleicht für immer erspart, ein sich jeder Ordnung entziehendes, da vorausgehendes Eines kalkulieren zu müssen der Mensch kann sich einer rationalen Komplexität nur begrenzt anpassen, allerdings komplexen Phänome sehr gut intuitiv erfassen..


ungewissheit des universalen

kann es Wissen ohne ein Bewusstsein wie beim Menschen geben? es müsste wohl ein Wissen sein, das auf allgemeingültigen Anschauungsformen bzw. universellen Intentionen beruht und auch für eine extraterrestrische Intelligenz zu verstehen wäre. als die NASA erstmals in Kupfer gestochene Informationen über die Erde mit einer Sonde in den Weltraum schickte eine Plakette in der Sonde Pioneer 10 zeigt in der oberen Ecke ein Wasserstoffmolekül, darunter die Postion der Erde im Weltall und daneben zwei nackte Menschen mit Grössenangaben., gingen Wissenschaftler noch davon aus, dass jede Intelligenz sich auf Naturgesetze beziehen kann, die überall mit denselben struktrellen Relationen erfasst werden.
inzwischen sieht man Regularien der Natur skeptischer und erwartet nicht mehr, dass menschliche Verallgemeinerungen für eine fremde Intelligenz per se nachvollziehbar sind. Wissen ist an Sinnfragen und einen konkreten Lebensvollzug gebunden. als Vermögen sich etwas repräsentativ anzueignen, charakterisiert es mehr einen kognitiven Phänotyp als die ihn umgebende Realität und es ist daher unwahrscheinlich, dass ausserirdische Bewusstseinsformen auf dieselbe Weise wie der Mensch eine Wirklichkeit erfassen. sie werden wahrnehmbare Determinationen in einem kognitiven Eigensystem modellieren, das aus ihrer Sicht auch universell ist, aber nicht unseren Anschauungen entsprechen muss. vielleicht haben sie sogar völlig andere Vorstellungen von Raum und Zeit, so dass sie gar nicht in einem gleichen Universum existieren Auffassungen über Raum und Zeit haben sich auch bei uns Menschen mit religiösen und wissenschaftlichen Weltbildern immer wieder gewandelt und es ist davon auszugehen, dass dies in der Zukunft weiterhin der Fall sein wird. .


einsamkeit im denken

für Kant ist eine reflexive Selbstreferenz konstitutiv für das Denken, da erst ein alle Vorstellungen begleitendes Ich es ermögliche, mentale Akte zu bündeln. seine primär auf Erkenntnisgewinn ausgerichtet Subjekt-Auffassung ignoriert allerdings das Begreifen von inneren Erfahrungen und damit den Einfluss von Gefühlszuständen, von Wünschen und Absichten auf mentale Prozesse.
wahrscheinlich hat Kant jenen Bereich absichtlich ausgeblendet, weil ihm klar war, dass im Unterschied zur wahrgenommen Aussenwelt immanent vorliegende Empfindungen selten ein begriffenes Wissen darstellen bei Kant begreift der Verstand genau genommen nicht einzelne Empfindungen, er deduziert nur abstrakt ihr Bestehen. . so können inhärente Verfassungen nicht wie wahrgenomme Objekte intentional im Denken repräsentiert, sie werden vielmehr sui generis analysiert. wer daher rein introspektiv sein Denken zu bedenken versucht, muss es akzeptieren, zuweilen sich selbst ein Fremder, ein einsamer Intimissimus in einem unfokussierbaren Horizont zu sein dennoch ist auch davon ausgehen, dass der Mensch, je mehr er erkennt, desto mehr sich selbst erkennen wird. wäre es nicht der Fall, würde die Erkenntnis je mehr sie steigt, desto mehr ein unmenschliches Wissen werden..


glauben im wissen

der Mensch strebt nicht nur nach Wissen, sondern ebenso nach Gewissheit, der Zuversicht von einem grundsätzlichen Wissen ein grundsätzliches Wissen war für Platon ein unumstössliches sowie allumfassendes Wissen um Ideen und Unterschiede.. doch warum braucht er dafür auch einen Glauben? reicht es nicht aus, wenn sich Erkenntnisse nicht zweifelsfrei begründen lässt, lediglich eine Meinung zu vertreten. da vor allem für universelle Relationen nicht sämtliche Implikationen eruierbar sind, bleiben sie ein zweifelhaftes Erkennen, an dessen Geltung geglaubt werden muss. ein solcher Glaube ist die Hoffnung, dass dem Verstehbaren trotz mangelnder Überprüfbarkeit eine unbedingte Geltung zukomme. doch wo es um das Unbedingte, also um das Absolute geht, beginnt eigentlich das vage Feld der Religion.
das rationale Denken kann nicht auf den Glauben an eine unbedingte Einheit im Denken verzichten, jene Unbedingheit muss als Anspruch immer wieder behauptet werden das absolute Wissen als die höchste Stufe bildet bei Hegel erst den Rahmen für die Beantwortung der Frage nach der höchsten Erkenntnis.. würden Theorien sich nur auf konkret Vorliegendes beziehen, bliebe kein Raum mehr für Abstraktionen, die über das Faktische hinausgehen.


vakante superposition

warum darf in einem Gedankenexperiment von Erwin Schrödinger eine Katze eine leibhaftige Superposition einnehmen Schrödinger inthronisiert sie derart zu einer unkalkulierbaren Lebensform.? obgleich sie sich im Gegensatz zum Menschen in den eigenen Schwanz beissen kann, wird es ihr immer an der Fähigkeit mangeln, ihr Dasein in ein kosmologisches Weltbild zu transzendieren. über eine solche Fähigkeit verfügt bislang einzig der Mensch. nur er schafft es dank seiner intelligiblen Anschauung, die Wirklichkeit mit all ihren Mannigfaltigkeiten als eine Einheit zu begreifen. sogar eine Welt quantenmechanischer Wahrscheinlichkeiten vermag er wie ein Gott zusammenzuhalten. und dies immer mit der idealen Vorstellung einer kohärenten Allwissenheit, wo es wie bei Schrödingers Katze modellhaft gelingt, überschaubare Wechselwirkungen zu isolieren und so ist genaugenommen auch Schrödingers Messapparat ein isoliertes System, ein System ohne starke Wechselwirkungen mit seiner Umgebung, was allerdings einer Situation entspricht, die es tatsächlich nicht gibt..


kontinuum des geistes

können Tiere denken? vermutlich besitzen alle Säugetiere und zahlreiche Vogelarten ein intentionales Bewusstsein, das dem menschlichen ähnelt bis ins 17. Jahrhundert hinein galten Tiere noch als eine Sache. Descartes sprach ihnen sogar jegliches Gefühlsleben ab.. Insekten wie Bienen oder Ameisen, welche über ein sehr kleines Gehirn verfügen, vollbringen als Individuen in einem komplex organisierten Staat sehr effizient intelligente Leistungen, und ohne Nervensystem können Einzeller seit Millionen von Jahren unter verschiedenen Bedingungen gut angepasst überleben.
die Natur durchzieht wohl ein Kontinuum des Geistes, das sich mit der Evolution als intelligentes Verhalten vielfältig und unabhängig voneinander verwirklicht hat. zur Transzendenz befähigt stellt der Mensch dabei nur eine bedingte Variante von diesem Vermögen dar. seitdem er zu seiner Umwelt sich distanziert positioniert hat, ist seine Intelligenz dazu verdammt, über ein Diesseits der eigenen Lebenswirklichkeit unentwegt weltoffen zu agieren.


anschauung als apriorie

braucht das Denken die Anschauung eines geometrischen Raumes? da sich gewohntermassen die Aussenwelt nur derart in der Wahrnehmung darstellt und erkennen lässt, muss die Frage wohl bejaht werden. ohne die Einordnung der Anschauung müssten Vorstellungen von der Wirklichkeit und Begriffe über sie ins Leere laufen. doch würde es nicht ausreichen, das Gegebene als eine topografische Ordnung strukturell zu relationieren, d.h. nur mit Zahlenverhältnisse zu erfassen in der modernen Mathematik werden Räume derart als abstrakte Strukturen behandelt, die mit unterschiedlichen Konzepten der Dimension begrifflich definiert, aber nicht vollständig durch Axiome fundiert werden.?
für Kant waren Raum und Zeit apriorische Formungen, welche nicht den äusseren Erscheinungen zu Grunde liegen und in ihrer Spezifik nur eine Eigenheit der menschlichen Kognition darstellen. demnach lässt sich die bewährte Dreidimensionalität unseres Anschauungsraumes nicht damit begründen, dass die physische Welt selbst über eine dimensionale Struktur verfügt. es ist eher davon auszugehen, dass die Wirklichkeit nur räumlich erscheint und nicht von einem tatsächlich vorliegenden Koordinatenkreuz geordnet wird. das vom Menschen erzeugte Bezugssystem ist ein mutables Konstrukt, welches als euklidische Geometrie, topologisch Ordnung oder hyperbolische Mannigfaltigkeit sich eine geordnete Anschauung schaffen kann.
bei manchen Tieren garantiert bereits eine zweidimensionale Verortung die präzise Orientierung, und es wäre vorstellbar, sogar eindimensional das Umgreifende, wie bei einer Turingmaschine als linear durchlaufende Datenspur zu erfassen. das sich mit seinen Sinnesorganen und dem Hirn evolutionär entwickelte Wahrnehmungsvermögen hat spezifische Raumvorstellungen für das Überleben von Organismen herausgebildet. nur der Mensch ist nicht daran gebunden. sein Wahrnehmungsapparat kann gedanklich die biologische Disposition übersteigen, so dass dann zum Beispiel ein angeborenes anisotropes Raummass, das Tiefen weiter entfernt zeigt, leicht korrigierbar ist ein lediglich widerspiegelndes Erfassen der Umwelt wäre immerhin eine auf Sinnesdaten recht begrenzte Wahrnehmung..
mit dem Vermögen körperliche Verhältnisse zu abstrahieren lassen sich Anschauungen erweitern und mit mathematischen Modellen sogar bis ins Unendliche hyperdimensional kalkulieren wird die Orientierung als eine Wechselwirkung mit Qualitätsänderungen verstanden, können eingehende Daten dahingehenden modelliert werden, dass sie eine Anpassung durch Lernprozesse darstellen, die effizient sich eigene Anschauungsräume konstruieren.. so werden nicht nur Wahrnehmungsverzerrungen ausgeglichen und Erfahrungshorizonte modellhaft auf kosmologische Grössen erweitert, sondern der Anschauungsraum generell mit rein topografischen Verhältnissen relativiert. vielleicht werden räumliche und zeitliche Vorstellung irgendwann von rein strukturellen Abstraktionen erfasst und somit nicht mehr der Ausgangspunkt für kognitive Prozesse sein.


künstliche wirklichkeiten

was natürlich ist, kann in einem Garten nicht künstlich sein. es ist etwas eigenwillig Gewordenes und nichts Gemachtes. im Gegensatz dazu liegt das, was gehegt und gepflegt wird, in einer gewollten Wuchsform absichtsvoll vor. dafür werden Pflanzen gezüchtet oder ihr Erbgut genetisch so verändert, dass spezifische Potentiale in vorliegenden Biotopen zum Zuge kommen. dies gilt ebenso für die Experimentalwissenschaften, wenn in Laboren zu untersuchende Phänomene aufwendig selektiert werden.
diffizile Zusammenhänge lassen sich bei physikalischen Prozessen erst erkennen, wenn eine wild wuchernde Komplexität überschaubar, d.h. reduziert vorliegt. umso exakter Wissenschaftler dann operieren, desto weniger haben sie es fallweise mit einer natürlichen Wirklichkeit zu tun. für Versuche in Hightech-Laboren, Blasenkammern und Teilchenbeschleunigern müssen heute Bedingungen geschaffen werden, die als Normalität äusserst selten oder überhaupt nicht bestehen der Wissenschaftstheoretiker Ian Hacking meinte, dass Forscher manche Effekte im Experiment erst erzeugen. dennoch bleiben für ihn auch solche Untersuchungsobjekte reale Entitäten, insofern es sich um kausale Agenten handelt.. das technologische Potenzial bestimmt dann, was konkret epistemisch zu rechtfertigen ist, und das epistemische Potenzial, was technologisch relevant sein kann die Unterscheidung zwischen Natürlichkeit und Künstlichkeit wird somit irrelevanter und mehr eine phänomenologische Beschreibungsweise..
Giambatista Vico hatte schon vor 300 Jahren erkannt, dass Menschen nur das verstehen, was sie selbst hervorgebracht haben. damit stellte er nicht nur die antike Überzeugung in Frage, dass jede techne auf eine episteme, also alles Handlungswissen auf ein kontemplatives Wissen beruhe, vielmehr zeichnete er unter dem Handlungswissen, das produzierende als das aus, welches erst zu einer Einsicht führt.


technik als prüfstein

die Technik ist zum Prüfstein des Wissens geworden und, wo sie erfolgreich theoretisches Wissen in eine praktische Anwendung transformiert, auch das Zertifikat für wissenschaftliches Know-how. gekoppelt an die industrielle Rationalisierung werden technologische Erfindungen zunehmend zu einer Sinnstiftung der Forschung. sie entscheiden in Laboren nicht nur über die Berechtigung einer Theorie, sie verkörpern sie mitunter geradezu, wo das, was im Mikro- oder Makrobereich erfasst wird, wissenschaftliche Modelle unterfüttert schon Gaston Bachelard meinte, dass technische Instrumente tatsächlich die Verkörperungen von Theorien sind, die sie überprüfen..
in einer kontingenten Umwelt haben sich Technologien als basaler Mechanismus der Kontrolle bewährt. wo sie physikalische Prozesse in kausal fixierten Abläufe halten oder wie beim Licht vorgeben, ob es als Strahl, Welle oder gebündelter Quantenzustand fungiert, binden sie wirksam zukünftige Erwartungen die Technosphäre ist eine Welt, die der moderne Mensch in der Technik erschafft und durch sie auch begreift.. selbst Misserfolge führen nicht stante pede zu Neuorientierungen, sondern zum optimierten Ausbau von technischen Systemen.
für Arnold Gehlen war der Mensch als Mängelwesen dazu verdammt, sich mit der Technik entsprechend seinen steigenden Bedürfnissen die Umwelt zu gestalten. da dies nicht unproblematisch geschieht, muss man wohl ebenso wie der Soziologe Helmut Schelsky argwöhnen, dass Technik nicht eine notwendige Mängelkompensation sei, sondern als eine Überschussleistung letztendlich mehr Probleme schafft als löst eine komplex raumgreifend sich entwickelnde Technik führt zur Entstehung eines globalen Metasystems, das sich in Konkurrenz zu Bio- und Geosphäre herausbildet..


grenzen der arithmetik

unter den Wissenschaften ist zuerst die Physik dazu übergegangen, die Mathematik als Grundlage für die Formulierung ihrer Theorien zu nutzen so wurden bereits die axiomatischen Ansätze der Mathematik zum Vorbild für die axiomatische Formulierung der klassischen Mechanik.. Phänomene der Natur lassen sich bestens als Regelmässigkeiten ermessen und mit algebraischen Äquivalenzen als Strukturaffinitäten darstellen. doch haben Übereinstimmungen nicht ihren Grund in geheimnisvollen Naturgesetzen, denen Teilchen gehorchen, sondern vielmehr darin, dass sich experimentelle Bedingungen, mit denen physikalische Prozesse quantifiziert werden, für das menschliche Erkennen bestens modellieren lassen.
Zählen setzt ein Beobachten und das Beobachten einen Beobachter voraus. die Realität ist nicht von sich aus gemäss der Abzählbarkeit ihrer Objekte geordnet und lässt ich nicht immer quantitativ erfassen. jede Berechnung ist nur so gut und brauchbar, wie sie formelhaft die Verhältnisse der Natur berücksichtigen und darstellen kann. wo Algorithmen nichtlineare und chaotische Komplexitäten zu kalkulieren haben, können, wie bereits beim Bahnverlauf von drei annähernd grossen Körper, mit elementaren Funktionen Prozesse nicht ausreichend kalkuliert werden das Zweikörperproblem ist durch die Keplerschen Gesetze lösbar, während die Integrale ab drei Himmelskörpern keine algebraischen Lösungen mehr ergeben. es scheint unmöglich, ein vierdimensionales Vektorenkonglomerat numerisch zu erfassen..
es besteht kein Zweifel daran, dass die Natur weitgehend symbolisch und auf diese Weise mathematisch beschreibbar ist. die Mathematik ist eine kompakte Sprache, mit der sich wissenschaftliche Modelle formulieren und auf eine logische Konsistenz hin überprüfen lassen. ohne eigene physikalische Realität schafft sie mit ihren Strukturen kalkulierbare Möglichkeitsräume, um Hypothesen zu verfeinern und um darüber hinaus Vorstellungen wie die des Unendlichen und des Irrationalen denkbar zu machen das mathematische Kontinuum war bereits in der griechische Antike ein detailliert ausformuliertes Thema für den philosophischen Diskurs.. es stellt sich daher die Frage, ob die Mathematik nur ein Handwerkszeug des Physikers ist, mit dessen Hilfe sich das Universum beschreiben lässt, oder ob die Realität selbst eine arithmetische Struktur darstellt und somit vielleicht Physik und Mathematik am Ende eins sind oder es einmal werden?


nach der wissenschaft

was wird es nach der Wissenschaft geben? da die Wissensproduktion als soziale Praxis Weiterentwicklungen unterliegt, muss konsequenterweise auch irgendwann eine qualitativ neue Form für das Streben nach Erkenntnissen erreicht werden. das wissenschaftliche Denken hatte mit welterklärenden Mythen seine Vorläufer und wird wohl ebenso für den rationalen Ansatz der heutigen Wissenschaft Nachfolger haben.
es ist bereits absehbar, dass zukünftige Erfolge bei der Genese von Begründungszusammenhängen fast ausschliesslich mit technologischen Innovationen und besonders mit den Potentialen einer künstliche Intelligenz erreicht werden KI-Technologien können nicht nur menschliches Routineleistungen im Computer nachbilden, sondern bereits autonom Datenlagen analysieren und irgendwann eigenständig heuristische Modell entwickeln.. bereits jetzt sind ohne Hightech-Apparate, mediale Veranschaulichungen und digital sich steuernden Datenverarbeitung kaum noch massgebliche Entdeckungen möglich. in naher Zukunft organisieren bestimmt primär intelligente Algorithmen als strukturelle Mannigfaltigkeiten die Wissensproduktion und erfassen dann für den Menschen in schwer überschaubaren topografischen Räumen Kausalordnungen in einer hyperdimensionalen Topografie kann der Mensch Strukturzusammenhänge nur bedingt als eine reale Gegebenheit wahrnehmen, da sie seine Imaginationskraft schnell überfordern.. vielleicht wird es einmal unvorstellbar sein, dass ein technologischer Fortschritt an die Beschränkung einer anthropologischen Vorstellung gekoppelt war.


vagheit des logischen

das Dogma des logischen Denkens ist das Prinzip der Widerspruchsfreiheit. lange Zeit verband die klassische Logik jene Forderung mit der ontologischen Binarität von Sein oder Nichtsein, so dass etwas nicht zugleich als wahr und falsch vorliegen konnte. inzwischen reicht ein solcher Bezug nicht mehr aus, weil sich das Denken in einem komplexer universellen Rahmen bewegt und mit jenem Dualismus gehäufter Inkonsistenzen Hempels Paradoxon oder die Cantorsche Antinomie zeigten bereits im letzten Jahrhundert solche Probleme auf akzeptieren muss.
um dem zu entgehen, nutzen erweiterte Logiksysteme seit Frege den logistischen Freiraum der Mathematik und quantifizieren Argumente sowie Schlussfolgerungen mit Kalkülen solche Ansätze fanden ihr Fundament bereits im spätmittelalterlichen Nominalismus bei William von Occam.. ohne ontologischen Bezug darf man hier gegen den Satz vom ausgeschlossenen Dritten verstossen und mit intentionalen Aspekten der Alltagssprache operieren. die Fuzzy-Logik erlaubt es sogar, mit statistischen Berechnungen die Vagheit eines Möglichkeitsraumes zu verifizieren. Unschärfen werden dabei wie bei einer Wetterprognose mehr oder weniger präzis als graduelle Wahrscheinlichkeiten erfasst, so dass sie sich diskret berechnen lassen.
bei Peirce wurde das logische Operieren selbst das Dritte. dafür führte er, in Analogie zu seinem triadischen Zeichenmodell, die logischen Terme des absoluten, des einfachen und des konjugativen Relativen ein. der ontologische Status des Relativen wird zu einem informellen Sein, das sich rein aus strukturellen Beziehungen ergibt ein sich daraus ergebendes Informiert-Sein beansprucht dabei als eine konkrete Wirklichkeit ebenso einen ontologischen Status.. mit diesem Ansatz konnten kybernetische Modelle die ontologische Binarität von Sein und Nichtsein in immer komplexere Verhältnisse aufspalten und multilateral relativieren bei Gotthard Günther kann eine Polykontextualität mehrere Bezugsrahmen behandeln, ohne dass eine Selbstreferenz in logischen Zirkeln strandet..
technologische Innovationen profitieren inzwischen im Bereich der künstlichen Intelligenz ungemein von einer solchen Weiterentwicklung. aber ebenso die Naturwissenschaften, da sie sich weniger an einem ontologisch fundierten Wahrheitsbegriff gebunden fühlen. sie können selbstbezüglich Modelle entwickeln und mit ihnen Phänomene als poietische Prozesse beschreiben. doch das Schlussfolgern ist mit der Öffnung zum Strukturellen ein komplex vages Unterfangen geworden und mitunter nur mit grossen Rechenkapazitäten operational zu bewältigen.


bodenloser fortschritt

mit Abstraktionen und formalen Verallgemeinerungen versucht das wissenschaftliche Denken zu einem universellen Wissen zu kommen. nur kann es einen Sachverstand des Universellen überhaupt für den Menschen geben? ein Gesamtzusammenhang, der physikalische Prozesse als Raum- und Zeitrelationen determiniert, wäre wohl einzig für einem Laplaceschen Dämon überblickbar. eine endliche Intelligenz muss sich damit begnügen, differenziert Wechselwirkungen der Natur in fundamentale Relation zu bringen. ein derartiger Anspruch ist aber genau genommen ebenso ein bodenloses Ansinnen. denn zum einen sind die Naturwissenschaften, wie es einst Heidegger reklamierte, nicht gewillt oder in der Lage, ihr Wissensgebiet grundlegend zu definieren Heideggers Einwurf, dass die Wissenschaft nicht denken kann, war weniger ein Vorwurf als vielmehr eine hinterfragte Anspruchshaltung. (Was heisst denken? 4. Aufl. Tübingen: Niemeyer 1984, S. 4)., und zum anderen ist auch kein absehbares Niveau zu erwarten, das sie zu einer abschliessenden Kohärenz mit einem dementsprechend komplexen Rahmen kommen lässt.
solange es etwas zu deuten gibt, solange das Wesen der Dinge und ihre Erscheinungsformen nicht unmittelbar zusammenfallen, muss es wohl akzeptiert werden, dass fortwährend komplexere Probleme, weitere Formen des Nichtwissens und paradigmatische Krisen evoziert werden nach Marx wäre alle Wissenschaft überflüssig, wenn dies einmal der Fall wäre (Kapital III, MEW 25, 825.).


wissen prognostizieren

Kant hat drei Arten des Fürwahrhaltens unterschieden: den Glauben, das Meinen und das Wissen. seitdem vermehrt prozessuale Entwicklungspotentiale in den Wissenschaften gesucht werden, müsste das Prognostizieren als vierter Modus hinzugefügt werden. wo allgemeingültige Wahrheiten nicht mehr zeitunabhängig und ohne Unwägbarkeiten, d.h. bei technologischen Erfindungen nicht ohne Risiken zu haben sind, bleibt das Wissen um rein faktische Wechselbeziehungen unzureichend. jener Herausforderung kann wohl erst ein epistemisches Prognostizieren gewachsen sein, das in und mit einem künftigen Entwicklungsstand operiert bislang werden dafür Prognosen erstellt, die als mathematische Wahrscheinlichkeit entweder kalkulierbar sind oder nur auf Ahnungen beruhen..
in einer Zeit des permanenten wissenschaftlichen Fortschritts, wird oft wie an der Börse auf Entwicklungspotentiale, auf die künftige Geltung von Wissen spekuliert. eine derartige Prätention orientiert sich weniger am tatsächlich Vorliegenden als vielmehr an einem zu erwartenden Zuwachs an Erkenntnissen für die Forschung ergibt sich somit ein Perspektivenwechsel, der weniger von Voraussetzungen als vielmehr von vorstellbaren Ergebnissen geprägt wird.. für solche Orientierungen sind nicht nur ständig höhere Bemühungen zu investieren, es ist auch ein Kredit zu zahlen, der zu einer hohen Verschuldung führen kann, insofern mit jeder Antwort sich neue Fragen ergeben und nachhaltig Unwägbarkeiten vor allem bei technischen Forcierungen zu erwarten sind.


kausale simplifikationen

die Technik ist für Kausalitäten ein ideales Medium. bereits mit wenig Aufwand gelingt es, in geregelten Kreisläufen natürliche Effekte separiert zu optimieren und damit zielorientiert zu nutzen. eine solche Konsolidierung kann aber auch zu einem Korsett werden, wo Maschinen prozesshaft in einem spezifischen Setting operieren und bei steigenden Optimierungen kausale Abläufe von wirklichen Zusammenhängen stark isolieren derartige Optimierungen müssen, um Bestand zu haben, regelmässig gewartet werden oder sich automatisch regulieren..
für technische Optimierungen gibt es in der Natur selten adäquate Vorlagen. der Mensch schafft dafür erst die nötigen Bedingungen und seine Leistung besteht nicht darin, stabile Ursache-Wirkungs-Beziehungen entdeckt zu haben, sondern in der Lage zu sein, die Voraussetzungen ihres Zustandekommens zu reproduzieren. dafür können Handlungsspielräume nur ausgebaut werden, wenn es gelingt, Effekte nachhaltig einzubinden und von unerwünschten Einflüssen fernzuhalten.
für Luhmann waren technische Artefakte kausale Simplifikationen, welche nur für bestimmte Ereignisse Zukunftsbindungen erlauben Technik konstruiert für Luhmann eine kausale Simplifikation für einen Erwartungszusammenhang, der sich auf eindeutig funktionierende Ursache-Wirkungs-Beziehungen beschränkt. und daher ein reduziertes Wissen verkörpern, das bei wechselnden Ansprüchen auf fortwährende Innovationen angewiesen bleibt. ein solches Defizit ist auch bei Entwicklungen der künstlichen Intelligenz zu konstatieren, insofern sich hier komplexe Prozesse auf festgelegte Anwendungen forcieren. obwohl inzwischen grosse Erfolge beim Schach bzw. Go-Spiel und in der Datenverwaltung erzielt werden, gibt es bisher keine eigenständige Weiterentwicklung als autonome Reproduktionen im Sinne einer Koevolution denn müssen sich kausale Beziehungen als Manipulation allzu optimiert profilieren, sind im Sinne einer Koevolution keine Selektionsprozesse möglich.. die Potentiale der künstlichen Intelligenz bleiben an menschliche Erwartungshaltungen gebunden und damit eine Hybrid von Kulturleistungen.


inkonsistente gesamtheit

das Wirkliche der Wirklichkeit muss mehr als die Gesamtheit aller Tatsachen sein. der Mensch will es so, um das Ganze von realen Zusammenhängen als eine Wahrheit jenseits des immanent Greifbaren hypostasieren zu können. obwohl sich komplex Gegebenes nur als Vielfalt und nie allumfassend konsistent denken lässt, wird grundsätzlich vorausgesetzt, dass auf einer Metaebene, in einem noch nicht erfassbaren Gefüge von Relationen eine allesumfassende Kohärenz frei von Widersprüchen vorliegt denn was als Ausschnitt widersprüchlich erscheint, muss in einem umfassenderen Verbund stringent zusammenpasen..
für Nikolaus Cusanus war in seiner Lehre von der coincidentia oppositorum jede Welterfassung eine perspektivische und keine abschliessende, da sich unter verschiedenen Blickwinkeln gleiche Dinge unterschiedlich darstellen. erst eine letzte Wahrheit, welche für ihn nur eine göttlich absolute sein konnte, würde alle Differenzen aufheben es muss über Perspektivität und den mit ihr verbundenen Gegensatzcharakter auf Nicht-Kontrarietät hinausgedacht werden.. eine solche Wahrheit als unbedingte Nullperspektive ist für den Menschen allerdings unerreichbar und muss daher eine vorstellbare Wunschvorstellung bleiben, während das Reale überdeterminiert vorliegt und vielleicht gar keinem Konsistensgebot folgt.


riskantes knowhow

was kann der Mensch nicht wissen? was soll er nicht erstreben? und was darf er sich nicht erhoffen? seitdem Chancen und Risiken für technologische Entwicklungen unbestimmbarer abzuschätzen sind, ist es wichtig geworden zu wissen, was man nicht erkennen kann und trotz intensiver Forschung nicht ausreichend zu validieren vermag.
wird wissenschaftliches Knowhow vermehrt mit technischen Entwicklungen verknüpft, nehmen unberechenbare Eingriffe in natürliche Kreisläufe zu seit einigen Jahrzehnten gravierend im Bereich der Chemie, Biologie und durch KI-Anwendungen für die soziale Infrastruktur. nachhaltige Probleme lassen sich dabei seltener voraussehen oder können bei einer grösser werdenden Eindringtiefe von technologischen Innovationen nur als überdeterminierte Unbestimmbarkeiten ambivalent erfasst werden. Entscheidungs- und Handlungsprozesse benötigen bei einem wachsenden Wissensstand dann eine stetig höhere Absicherung, welche vermehrt kollektive Ressourcen verschlingt oder bei Unwägbarkeiten wie der Gen-Manipulation zu juristischen Verboten führt bei schwer zu prognostizierenden Risiken wird die Forderung, manches Wissen restriktiv zu unterbunden, vehementer vorgetragen..
Aristoteles hat der Kreativität grundsätzlich enge Grenzen gesetzt. er plädierte für eine Priorität der Verwirklichung gegenüber dem kontingent Möglichen, mithin im Seienden lediglich das hervorgebracht werden kann, was angelegt ist Wissen im engeren Sinne gab es für Aristoteles nur von unveränderlichen Sachverhalten. dafür hat er Wirk-, Material-, Zweck-und Formursachen ausgewiesen.. heute muss man dafür plädieren, dass Eingriffe in die Natur nur erfolgen sollten, wenn alle Folgen abgeschätzt und kompensierte werden könnten. dabei sind reine Spekulationen auf künftige Entwicklungen, welche nachhaltige Schäden wieder ausgleichen, nicht legitimierbar
mehr als die moderne Wissensschaft versuchte die Philosophie der Antike das Geschehen der Wirklichkeit als Ganzes zu erklären. man ging mit arg begrenzten kognitiven Mitteln davon aus, dass Denken und Sein dasselbe seien. Wahrheiten hatten dafür als etwas Unveränderliches in einem Kosmos vorzuliegen, während das ontologisch nicht Einordbare als Trug abgelehnt wurde in der überlieferten Fassung kann der Satz von Parmenides: dass Denken und Sein dasselbe seien derart gemeint sein. der Grund für das Denken sind dann existierende Seinsformen, während das ontologisch nicht zu ordnende als Trug abzulehnen ist..


topografie des denkens

aus einem Hier und Jetzt heraus entfaltet sich das Denken und ist von einem Subjekt, der Perspektive eines reflektierenden Ich nicht abzulösen. dennoch kann der Ort des Denkens nicht auf Personen oder Sprechakte eingegrenzt werden und ebenso wenig auf die Schallwellen gesprochener Sätze, das Feuern von Neuronen oder die sozialen Effekte einer Sprache.
für Descartes existierte ein Bewusstsein im Gegensatz zum Körper nicht in einem Raum, sondern in der Zeit die Zeit war für René Descartes ein Modus des Bewusstseins. (Princ. philos. III, 3). wenn bis heute unterschwellig an seiner problematischen Trennung zwischen denkender und materieller Substanz festgehalten wird, dann um geistige Prozesse nicht reduktionistisch zu fundieren, als primär biochemische Reaktionen oder soziale Verhaltens- und Sprachspiele analysieren zu müssen. bei Denkakten handelt es sich immerhin um mentale Prozesse, die sich als Epi-Phänomene emergent übersteigen und zugleich Subjekt sowie Objekt sind obwohl für das Denken gleichfalls physikalische Gesetze gelten, lässt es sich mit unserem Wissensstand auf jene nicht zurückgeführt werden.. eine solche Verschränkung, welche die eigene körperliche Präsenz auch als Transzendenz umfasst, generiert eine heterotopische Virtualität in einem unbestimmbaren Möglichkeitsraum mentale Akte lassen sich auf jene Weise als aufgeschobene oder ausbleibende Reaktionen erklären, als ein Aufgeschobenes zwischen Gewissheit und Ungewissheit.. für selbstbewusste Reflexionsprozesse wird fortwährend eine Welt beansprucht, welche die Wirklichkeit übersteigt und bei einem stetig wachsenden Wissensumfang vielleicht irgendwann nicht mehr in sie hineinpasst.


anspruch auf eine weltformel

die theoretische Physik hat ihre Hoffnung, mit einer Theory of Everything die Wirklichkeit als eine abgeschlossene Gesamtheit zu erfassen, mittlerweile aufgegeben. oder zumindest aufgeschoben, da der Wunsch, den Geltungsbereich von Erkenntnissen in eine systematische Gesamtheit zu bringen, wohl schon zu lange ein menschlicher Traum ist seitdem man die erkennbare Wirklichkeit mit Weltbildern imaginiert, gibt es auch Versuche, diese idealistisch, naturalistisch, phänomenologisch oder finalistisch zu begründen..
obwohl hinter der verstehbaren Wirklichkeit immer ein fortwährendes Unverstehen anzunehmen ist, wird an der Vorstellung einer allmächtig universellen Erkenntnis festgehalten. sie völlig abzulehnen, wäre ein Verrat an einem transzendentalen Denken, dessen Potentiale als auch eine Wirklichkeit nicht völlig zu durchdringen sind. insoweit mentale Prozesse grundsätzlich die Anlage für fortwährend neue Gewissheiten haben, scheint die Erwartung eine Berechtigung zu haben, dass Erkenntnisse in einer fernen Zukunft einmal zu einer systemisch abgeschlossenen Gewissheit führen.
mit dem Paradigma der Bewusstseinsphilosophie ist die Vorstellung der Welt an ihre Erkennbarkeit gebunden und ihre Erkennbarkeit wiederum von einer vorstellbaren Welt bedingt dabei sind Versuche, Antinomien zu begrenzen, indem sie profanisiert oder als Scheinprobleme hingestellt werden, leider perpetuell zum Scheitern verurteilt.. geht man davon aus, dass sich das Vorstellungsvermögen immer über Grenzen des Wissens hinwegsetzt, lässt sich das Universum weder mit noch ohne einen omnipotenten Anspruch, also der Idee von einer Theory of Everything, einer kohärenten Ordnung vollständig beschreiben bei Kants Unterscheidung zwischen einer Welt für uns und einer Welt an sich wird nicht der Gegensatz von unterschiedlichen Wirklichkeitsebenen herausgestellt, sondern vielmehr die vermittelbare Weise einer kognitiven Aneignung..


falsifikation als evidenz

Theorien, welche sich erfolgreich in der Praxis bewähren, abstrahieren eine empirische Evidenz und bilden auf dieser Grundlage Wirklichkeitsausschnitte vorhersehbar ab. dabei stellen sie auch den Progress von Wissen auf eine detailliertere Gesamtheit. doch um uneingeschränkt eine ausbaufähige Geltung beanspruchen zu können, erweisen sich solche Verallgemeinerungen nicht als zuverlässig genug. eine Theorie prüfen heisst daher nach Poppers Falsifizierbarkeits-Regel, vielmehr Verfahren finden, mit denen sich Wissen widerlegen lässt. da keine noch so grosse Anzahl von Überprüfungen zu zeigen vermag, dass eine Verallgemeinerung zwingend wahr ist, ist das Widerlegen einem Verifizieren vorzuziehen. dies trifft leider ebenso auf die Falsifikation selbst zu, die als erkenntnistheoretisches Prinzip kein Nonplusultra beanspruchen kann der Anspruch einer Falsifizierbarkeits-Regel muss auch hinterfragbar, d.h. selbst falsifizierbar sein. dies gilt vor allem bei einen empirischen Nachweis, der bei konkurrierenden Theorien immer widerlegbar ist.. es ist auch häufig der Fall, dass Ausnahmen umso besser eine Regel bestätigen, indem sie jene erweitern oder in ihrem Umfang beschränken bei mancher Datenlage ist die Wahl zwischen verschiedenen Theorien nicht festlegbar, da nicht eindeutig determiniert..
um mit der Methode der Falsifikation zu einem garantierten Fortschritt in den Wissenschaften zu kommen, hat der Physiker David Deutsch vorgeschlagen, dass eine Theorie nicht nur falsifizierbar sein soll, sie muss auch Erklärungen bieten, bei denen es nicht möglich ist, sie einfach abzuändern, falls ihr neue Erkenntnisse widersprechen David Deutsch forderte dies in seinem Vortrag "A new way to explain explanation" (Juli 2009).. es soll verhindert werden, dass es Kompromisse durch invariable Modifikationen von Lehrmeinungen gibt, welche fällige Paradigmenwechsel blockieren.
wer derartig argumentiert, ignoriert allerdings, dass neue Paradigmen als strukturell sich etablierende Perspektivenwechsel erst zu veränderten Sichtweisen führen und nicht per se empirische Widersprüche. ob unmittelbar evident oder erweitert durch präzisere Messinstrumente, bleibt die sinnliche Evidenz eine begrenzte Erfahrung, und es ist zu akzeptieren, dass für jede Theorie mindestens eine Alternativtheorie vorliegen kann, welche durch dieselben empirischen Daten gestützt wird.


veritatives irren

das wissenschaftliche Denken bleibt auch bei einem wachsenden Wissenshorizont auf ein Mutmassen angewiesen. wer universelle Wahrheiten sucht, muss es wagen fehlzugehen und zuweilen den Irrtum suchen, d.h. einen Irrtum, der nicht per se das Gegenteil der Wahrheit sein kann. ein Irregehen verweist immerhin auf die Fähigkeit zur Unterscheidung zwischen falsch und richtig der Mensch verfügt über eine kognitive Kompetenz, die sich nicht einfach in der Übereinstimmung zwischen Erkenntnis und Wirklichkeit erschöpft, sondern sich vielmehr weltbildend durch Intentionalität und Kontrafaktizität und Pluriperspektivität sein Umfeld erschliesst. . als ein vorliegender Tatbestand kann das Irren unabhängig von einer vertretenen Überzeugung einen erheblichen heuristischen Wert darstellen und ein Türöffner für neue Denkansätze sein.
für die Protagonisten des kritischen Rationalismus wurde das Irren sogar mit dem Trial-and-Error-Prinzip zu einer Methode für Karl Popper vollzog sich der Erkenntnisfortschritt vor allem durch dieses Prinzip, das zuvor von Herbert Spencer Jennings und W. Holmes für evolutionäre Prozesse in der Biologie als Begriff geprägt wurde.. man meinte, mit einem eruierbaren Irrtum als unfehlbare Erkenntnisinstanz die Asymmetrie von Verifikation und Falsifikation vermitteln zu können. doch konsequenter Weise muss ebenso ein Prinzip der Falsifizierbarkeit davon ausgehen, dass es sich bei ihm um einen irrtümlichen Ansatz handeln kann, solange Erkenntnisprozesse nicht persistent falsifizierbar sind.


jenseitige perspektive

obwohl die Realität das übersteigt, was sich bewusst erfassen lässt, bleibt die Vorstellung von ihr als Ganzes eine imaginierbare Obsession. für Leibniz war die kosmische Gesamtheit bei einem begrenzten Horizont an die Vielheit unterschiedlicher Perspektiven gebunden und in seiner Theodizee eine Eigenschaft von einzelnen Monaden, welche mit einem jeweils anderen Blickwinkel ganz viele Universa generieren da Monaden bei Leibniz in ihrer Perzeptionen so verschieden sind, stellt jede in ihrer Weise das Universum als ein jeweils eigenes Abbild dar..
Kant hat, um allgemeine und notwendige Bedingungen für das Erkennen zu verorten, den perspektivisch universellen Blick wieder an den endlichen Horizont des Menschen gebunden. indem er nicht die Frage favorisierte, was etwas ist, sondern was die Bedingungen für mögliches Wissen über etwas sein können, wurde die Erkennbarkeit von Wirklichkeit an das Bezugssystem des menschlichen Bewusstseins gekoppelt spätestens seit der Renaissance bezeichnet man in Analogie zur Erdkugel und zum Himmelsglobus die Gesamtheit der reinen Erkenntnisse als globus intellectualis. Kant versuchte dafür ein Modell zu entwerfen, mit dem die Grenzen menschlicher Erkenntnis zu bestimmen sind.. damit wird eine standpunktunabhängige Betrachtung obsolet. auch wenn der Mensch als Beobachter zweiter Ordnung seinen begrenzten Horizont einordnen und relativieren kann eine Beobachtung zweiter Ordnung bleibt dabei stets eine Beobachtung, die Beobachtbares nur beziehungsreich erfasst., wird er wohl niemals in der Lage sein, von einem Jenseits aller möglichen Standpunkte der Realität zu erfassen auch jeder fiktive Standpunkt dafür ist stets ein Irgendwo, das bezügliche Parameter braucht..


immanenz der strukturen

obwohl ein alles umschliessendes Universum das übersteigt, was sich bestimmen lässt, ist der Mensch in der Lage, dafür eine Vorstellung zu entwickeln. er kann seine Wahrnehmung transzendieren und ist für komplexe Wechselbeziehungen im Mikro- oder Makrobereich nicht auf das Offensichtliche einer greifbaren Wirklichkeit beschränkt. um Eigenschaften sowie strukturelle Dynamiken systematisch zu erfassen, reicht es aus, das Messbare als geordneten Zustand oder variablen Prozess strukturell zu taxieren die Relationen zwischen den Dingen werden dann zu einer essentiellen Washeit (quidditas) für den erkenntnismässigen Zugang..
doch was stellen überhaupt Strukturen dar? sie beschreiben einerseits als Orientierungsrahmen der Ratio zu untersuchende Phänomene und werden andererseits als Relationen der Wirklichkeit vorausgesetzt. somit sind sie ein Raster der menschlichen Wahrnehmung und zugleich unterstellte Ordnungsrelationen bei natürlichen Prozessen. wo die Realität allerdings für den Menschen überdeterminiert vorliegt, kann es sich dann nicht um identische und nicht einmal um analog korrespondierende Verhältnisse handeln.
eine von Aristoteles ausgehende und im neuzeitlichen Rationalismus weiterentwickelte Ontologie wollte eine Logik des Seienden sein und übertrug, um eine umfassende Erkennbarkeit zu behaupten, logische Strukturen auf die Sphäre allen Seins. eine solche Gleichsetzung gelingt nur mit Weltbildern, welche häufig beliebig erfunden werden, um irgendwann wie der alte Zeus-Glaube wieder verworfen zu werden. solange nicht fraglos zu klären sei, ob logische Strukturen ebenso der Natur immanent sind, gehörten sie für Vertreter des kritischen Realismus wie Nicolai Hartmann eher in eine ideale Sphäre Nicolai Hartmann in Grundzüge einer Metaphysik der Erkenntnis (1921).
ein spekulativ neuer Realismus geht mittlerweile davon aus, dass die Welt neben konkret vorliegenden Entitäten ebenso aus immateriellen Fiktionen des Denkens bestehen muss da man wahre Aussagen über nicht-existierende Dinge formulieren kann, hat Meinong bereits 1904 vorgeschlagen, dass unser Universum nicht nur von real existierenden Objekten bevölkert wird, sondern abstrakte und imaginäre Entitäten mit einschliesst.. für deren Protagonisten und besonders für Graham Harman haben immaterielle Fiktionen des Denkens eine gleiche Existenzberechtigung wie empirische Tatsachen Graham Harman: "Speculative Realism – An Introduction",Cambridge 2018. ein Gedanke über ein abstraktes Bild ist somit kein Epiphänomen, sondern genauso real wie der neuronale Zustand eines Gehirns im Moment der Betrachtung. mit einer solchen ontologische Grosszügigkeit werden die Bereiche des Seins interferent gesehen, auf dass sich der Dualismus von Geist und Materie mit einem substanziellen Pluralismus überwinden lässt. das hat immerhin den Vorteil, dass die Realität auch ohne einen bestimmbaren Bezug zwischen transzendentaler Vernunft und Emperie als eine beständig wahr gegebene vorliegt die Vernunft ist für jenen Realismus nur noch Vermögen und nicht notwendig an Subjekt-Objekt-Beziehungen gebunden. sie kann, wenn sie das nicht Erdenkliche der Welt fabuliert, phantasiert oder fingiert, sich rein spekulativ entfalten..


hier und jetzt

die scheinbar konkretesten Wörter einer Sprache, wie hier und jetzt, sind bei Hegel zugleich die allgemeinsten. weil überall und immer hic et nunc verwendbar, verweisen sie im Weltganzen als variable Indices nicht anhaltend auf dasselbe. bei manchen Elementarteilchen ist sogar nur für ein paar Millionstel Sekunden eine Zuordnung möglich im Bereich des elementar Punktförmigen scheint die Welt genau genommen weder real noch lokal zu sein..
kurzlebige Entitäten erfordern eine äusserst präzise Wahrnehmung, und mitunter werden sie allein durch mathematische Berechnungen erfasst, wie bei den ephemeren Higgs-Teilchen, welche mit beinaher Lichtgeschwindigkeit fliegend niemals die kurze Strecke bis zu einem Detektor überdauern. einzig Zerfallsprodukte lassen sich von ihnen nachweisen in der Quantenwelt gibt es für elementare Teilchen zumeist eine Bestimmtheit, wenn ihr Möglichkeitsraum kollabiert..


relativer metabezug

das wissenschaftliche Denken strebt nach Allgemeingültigkeit und findet sie vorwiegend bei beständig verlaufenden Prozessen. nur je ausführlicher und präziser Zusammenhänge im Mikro- und Makrobereich exploriert werden, desto mehr offenbaren sie sich als schwer zu kalkulierende Instabilitäten. selbst bei einfachen Systemen mit drei Körpern, sorgen Gravitationskräfte für so komplizierte Bahnkurven, dass geringste Änderungen zu unberechenbaren Veränderungen führen während das Zweikörperproblem durch die Keplerschen Gesetze analytisch lösbar ist, sind Integrale im Fall von mehr als zwei Himmelskörpern nicht mit elementaren Funktionen berechenbar..
mit wissenschaftlichen Prognosen können Prozesse erst kalkuliert werden, wenn man Phänomene auf überschaubare Faktoren mit einfachen Abhängigkeiten reduziert. bei komplex dynamischen Abläufen, die wie in der Thermodynamik oder Biologie stark abstrahierende Betrachtungen erfordern, fällt es schwer, dafür marginale Relationen zu erfassen. nichtsdestotrotz werden in den Naturwissenschaften universell wirkende Strukturen für alle Phänomene der Wirklichkeit unterstellt. mit mathematischen Modellen und digitalen Simulationen erhofft man sich, auf diese Weise Korrelationen im immer grösserem Umfang zu analysieren. doch mitunter gelingt dies erst, wo Effekte einer Selbstorganisation unterstellt werden es wird eine Universalität der Strukturbildung unterstellt, mithin Zustandsänderungen bei physikalischen, chemischen und sogar biologischen Systeme nach den gleichen Regeln ablaufen und in mathematische Formeln erfasst werden können.. verbindliche Regelmässigkeiten müssen sich dann nicht mehr aus den Eigenschaften einzelner Entitäten, den Konstituenten der Materie ableiten, sie sind mit der Vorstellung von einer Gesamtheit als systemische Eigendynamik oder sogar als negative Entropie beschreibbar der Begriff negative Entropie wurde von Erwin Schrödinger geprägt und beschreibt Prozesse, die Entropie exportieren, um ihre eigene Entropie niedrig zu halten..
das wissenschaftliche Denken ist darauf angewiesen, Ordnungen zu beanspruchen, die als Strukturgefüge die Menge der ermittelbaren Fakten per se übersteigen bei Kant war die Allgemeinheit noch ein ausschlaggebendes Kennzeichen für eine objektive Gültigkeit von Aussagen und Begriffen.. da der Verstand dazu neigt, seinen Standpunkt zu wechseln und dann Wahrgenommenes zu relativieren beginnt, bleibt er bei der Orientierung auf einen verlässlichen Rahmen angewiesen. meist ist nur ein imaginärer Metabezug in der Lage, vor einem infiniten Regress des blossen Aufeinanderbeziehens von Ansichten zu bewahren.


mass des denkens

die Wirklichkeit ist zu mannigfaltig für ein propositional allgemeingültiges Wissen, als ontologische Gegebenheit indes etwas Relativierbares. der Mensch kann die Faktizität des Realen mit seinen Verhältnissen erfassen und wird so, wie einst Protagoras feststellte, zum Mass aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind der von Platon überlieferte Homo-mensura-Satz des Protagoras wird je nach Übersetzung der Konjunktionen subjektivistisch, sensualistisch oder relativistisch interpretiert. dabei unterschlägt man gern die grundlegende Bedeutung, welche sich mit dem Wort Mass ergibt.. dabei ist das menschliche Erkennen ein Bestimmen und kein Wissen von den Dingen selbst, insofern im Universum Sinneinheiten nicht an sich vorliegen, lediglich relative Verhaltensweisen von Teilchen und Feldern, die sich aus ihnen zugrunde liegenden Beziehungsstrukturen ergeben.
wer das Wirkliche im Rahmen eines Kosmos, Multi- oder Megaversum mit seinen Bezugsgrössen massnimmt, erhält niemals ein unmittelbares Abbild, sondern nur seinen Messverfahren entsprechende Relationen von Naturphänomenen. Realität üblicherweise bezieht sich das Wort Realität auf den Bereich, der unabhängig vom Bewusstseinszustand existiert. wird in der Form erkannt, in der sie gemäss einer normierbaren Perspektive zugänglich ist, also reliabel bestimmt durch Zahlen und syntaktische Strukturen des Ausdrückbaren. auf diese Weise lässt sich zwar gleichfalls das nicht Erfassbare mit der Annahme einer allumgreifenden Gesamtheit variabel explorieren die Idee eines universellen Zusammenhanges kann dabei allerdings nur eine Präsumtion sein, die sich im Nachhinein zu rechtfertigen hat., welche aber latent als einender Grund vorausgesetzt werden muss. erst dann sind Bezüge zu und zwischen den seienden Dingen überhaupt möglich.


lücke im rationalen

ob die Realität in ihrer Komplexität als eine erkennbare vorliegt oder nicht, ist eine schwer zu beantwortende Frage. aber noch schwieriger ist es zu klären, warum es eine solche Frage überhaupt geben kann. die Frage nach einer Erkennbarkeit schafft zwar eine Differenz, die verdeutlicht, dass das zu Erfragende für die menschlichen Perspektive bereits universell als eine Annahme vorliegt, aber sich dem Verstehen ebenso entzieht. das Denken kann sich weder auf einen Anfang noch ein Ende, auf kein erstes und kein letztes Wissen bei Erkenntnisprozessen beziehen und es bleibt stets lückenhaft solche Lücken kann genaugenommen auch kein vorgestellter Laplacesches Dämon füllen..
dies müsste frustrierend sein, ist es aber nicht, solange der Verstand beim logischen Schliessen zu synthetischen Urteilen fähig ist. assoziativ ist es möglich, den vorliegenden Wissensstand immer wieder neu zu einer zusammenhängenden Gesamtheit, einer ontologisch behaupteten Universalie, wie die von räumlichen und zeitlichen Mannigfaltigkeiten, zu verknüpfen. dafür braucht es lediglich das Narrativ, dass überhaupt kohärente Zusammenhänge in der Wirklichkeit vorliegen. um die Realität als Totalität in eine Vorstellung zu bringen, versucht der Mensch fortwährend sich Standpunkte imaginieren, mit denen er sich vorstellen kann, eine Welt ausserhalb des eigenen Fliegenglases zu betrachten der Fliege den Ausweg aus dem Fliegenglas zu zeigen, war für Wittgenstein immerhin das Ziel der Philosophie..


sinn des sinnlosen

sinnlose Aussagen, wie die semantische Antinomien "ich lüge" oder "ich existiere nicht", sind weder falsch noch wahr. sie stellen einen Nebeneffekt generischer Potentiale von Grammatiken dar und sind in jeder Sprache artikulierbar. Vertreter des Logischen Empirismus haben sich an Propositionen, die keine Verifizierbarkeit zulassen, lange Zeit die Zähne ausgebissen und sie mitunter als unwissenschaftliche deklariert so rät A.J. Ayer in "Wahrheit, Sprache und Logik": falls sich nicht prinzipiell angeben lässt, wie man über Wahrheit bzw. Falschheit entscheiden kann, sollen Aussagen als wissenschaftlich sinnlos verworfen werden.. aber sinnlose Sätze stellen auch ein Vermögen des Denkens dar, da immer davon auszugehen ist, dass sie das Potenzial für neuartige Reflexionszusammenhänge haben und somit zu Erkenntnisgewinnen führen. evidente Sinngehalte begrenzen oft das Denken auf ein Begründ- und Begreifbares, sie umfassen nur das, was folgerichtig der Fall sein kann.
um Widersprüchen, also unstimmig erscheinenden Tatsachen auf den Grund zu gehen, braucht es Sprachpotentiale, die eine Dualität von wahr und falsch unterlaufen. erst so lässt sich mutmassen, was noch keinen Wahrheitskriterien unterliegt. universell wissenschaftliche Orientierungen können bei der Sinngebung des universell Natürlichen Sätze ohne Wahrheitsgehalt nicht völlig ablehnen. die Wirklichkeit als unbedingbare Einheit übersteigt stets das Begreifbare, und sie muss es auch, damit sie bei Pradigmenwechseln fortwährend ein sinnvoller Rahmen für Erkenntnisprozesse bleibt.


transzendente anmassung

wenn es alles gibt, was es geben kann, warum dann nicht auch direkt als erkenn- und begreifbare Tatsachen? die Frage scheint vermessen zu sein, wenn man davon ausgeht, dass der Horizont des Verstehenwollens perpetuell in einem endlichen Lebensbezug begrenzt bleibt. die Vorstellung von einer allumfassend erkennbaren Realität ist wohl eine menschliche Hybris, die Gewissheiten eines begrenzt bleibenden Sachverstandes mit den unendlichen Potentialen des überhaupt Wissbaren unifiziert es lassen sich Gewissheiten mit der Ungewissheit lediglich in ein ambivalentes Verhältnis bringen, so dass auch die Vorstellung von einer Begrenzung in Raum und Zeit in eine Grenzenlosigkeit hineinpasst..
Kierkegaard machte die Leidenschaft der menschlichen Ungeduld dafür verantwortlich für Kierkegaard war es das höchste Paradox des Denkens, etwas entdecken zu wollen, das es selbst nicht denken kann. (in Philosophische Brocken). die Vorstellung von einem überbordenden Alles ist zwar das Höchste, was der Mensch transzendieren kann, insofern es aber keine henologische Perspektive und keine empirische Basis für ein solches Ansinnen gibt und wohl niemals geben kann, bleibt das Wissen um sein Nichtwissen als ein Ungrund der Ungrund ist nach Jakob Böhme kein denkbarer, vielmehr ein existentiell zu lebender Grund. das Fatum des transzendenten Verstehenwollens.


© frank richter, 2016-19