alles als theorie


die hyperbolik universeller ansprüche


"...im Grunde geht es immer nur um die Herstellung von Metaphern..."

Heiner Müller

totalität als anspruch

was sich erkennen lässt, muss immer irgendwo hineinpassen und sich zu einem Ganzen fügen. dafür braucht die Einbildungskraft fortwährend einen Rahmen. doch wie gross muss jener sein, damit das, was der Fall ist und sein könnte, für das Denken eine entsprechende Mächtigkeit bekommt? es kann sich bei dem Anspruch einer ontologischen Totale wohl nur um eine Vermessenheit handeln, die ihre Bodenlosigkeit als Prinzip akzeptiert eine solche Prätention kennt keine Begrenzung, so dass die Leitfrage der Ontologie: "Was gibt es?" immer noch mit "Alles" beantwortet werden kann (siehe Willard Van Orman Quine, "On what there is", 1948)..
Thales von Milet war der Überlieferung nach der erste griechische Philosoph, der einem derartigen Erkenntnistreben einen Urgrund gab, indem er das Ensemble der göttlichen Mythen zu einer substanziellen Alleinheit destillierte. sein Ansatz war sehr erfolgreich und verpflichtet mit seiner Radikalität, obwohl nur auf Wasser gebaut, bis heute das Denken auf das Phantasma für Wittgenstein handelte es sich bei jener Totale um die Begrenzung eines Fliegenglases. eines absoluten Verstehenwollens, das sich nie zu einem verstehbaren Einen fügt.


hyperbolische ganzheit

obwohl die Vorstellung von einem allumfassenden Ganzen erst eine universelle Orientierung garantiert, darf eine Gesamt als Totaltität die Wirklichkeit nicht begrenzen, kein geschlossener Raum sein, nur ein absolut Einendes, das sich nicht genau bestimmen lässt. das wissenschaftliche Denken ist auf eine solche Freiheit angewiesen, um sich stets selbst überschreiten oder wenigstens aus einer Distanz heraus überblicken zu können. dies gelingt am einfachsten mit einem weltanschaulichen Entsprechungsverhältnis, das eine hypothetische Nullperspektive als fundamentum inconcussum postuliert.
nur ist eine solche Position genau genommen eine unmögliche Perspektive, da sie einen archimedischen Punkt ausserhalb des Wissbaren beansprucht. Descartes meinte jenen Standpunkt mit seinem hyperbolisch alles hinterfragenden Zweifel gefunden zu haben. doch wo ein radikaler Zweifel zum Prinzip erhoben wird, geht konsequenter Weise jede Gewissheit, selbst die des Zweifelns verloren bereits Augustinus stellte fest, dass selbst wenn jemand in allem irrte, er dennoch ein Irrender sei (Si fallor, sum. in De civitate dei, XI. 26).. der cartesische Zweifel führt nicht zu einem unbedingten Wissen, insofern es ausgeschlossen ist, an allem zu zweifeln und gleichzeitig in allem getäuscht zu werden Descartes konnte seinen Zweifel letztendlich nur behaupten und ihn als Methode metaphysisch aufwerten..


kosmische evidenz

bei Kant ist das moralische Gesetz im menschlichen Gemüt nicht ohne den bestirnten Himmel zu haben. die Unermesslichkeit des Universums und das subjektive Empfinden werden in eine antinomische Beziehung gebracht, um in der "Kritik der praktischen Vernunft" einen fulminanten Schlussakkord zu setzen das Universum, dessen Relationen man zu Kants Zeit vielversprechend zu erforschen begann, wurde in der "Kritik der praktischen Vernunft" als Inbild des ästhetisch Erhabenen zu einem Pendant für das verallgemeinerbar Sittliche. . ein derartiger Bezug vermag bis heute eine erhebende Wirkung ausüben, mithin die Übergrösse der Welt die menschliche Einzigartigkeit als etwas Besonderes herausstellt. er kann aber ebenso kränken, wo universelle Weiten voller Kontingenzen die Empfindung aufkommen lassen, nur ein unbedeutendes Staubkorn in einem Weltengetriebe zu sein.
seitdem Raum, Zeit und Materie nicht mehr als eine verbindliche Einheit gesehen werden, stellt sich die Wirklichkeit auch als komplexe Unordnung dar. statt erkennbarer Determinismen liegen zu modellierende Wahrscheinlichkeiten vor, welche erst Ordnungen herausbilden, wenn sie jemand erfasst und in plausible Vorstellungen wie die der Urknalltheorie oder die eines Multiversums bringt. gelingt es nicht, wird der kosmische Blick für das nach Erkenntnis strebende Subjekt zu einer Erfahrung der eigenen Haltlosigkeit.
nicht alles Erkennbare passt mehr zueinander, so dass der Anspruch einer ontologischen Transzendenz sich zunehmend in einer Differenz immanenter Bezüge verliert. innerhalb kosmischer Dimensionen imaginiert das menschliche Vorstellungsvermögens seine Begrenzung als eine infinite Freiheit, mit der alles möglich sein kann und sub specie aeternitatis beliebig erscheint der Kosmos liegt dann als eine Option vor, welche die eigenen Möglichkeiten zur Disposition stellt, ohne selbst zur Disposition zu stehen. .


ausnahmen als regel

Theorien, welche sich erfolgreich in der Praxis bewähren, abstrahieren empirisches Wissen und können, wie technische Anwendungen immer wieder zeigen, Wirklichkeitsausschnitte vorhersehbar abbilden. dennoch erweisen sich auch dann Verallgemeinerungen nicht als zuverlässige Regeln, welche uneingeschränkt eine Geltung beanspruchen können. eine Theorie prüfen heisst daher nach Poppers Falsifizierbarkeits-Regel, Verfahren finden, mit denen sich Wissen widerlegen lässt. da keine noch so grosse Anzahl von Überprüfungen zu zeigen vermag, dass eine Verallgemeinerung zwingend wahr ist, wird das Widerlegen einem Verifizieren vorgezogen. das trifft allerdings ebenso auf die Falsifikation zu, die als erkenntnistheoretisches Prinzip kein Nonplusultra beanspruchen kann der Anspruch einer Falsifizierbarkeits-Regel muss auch hinterfragbar, d.h. selbst maximal falsifizierbar sein.. zudem ist davon auszugehen, dass Ausnahmen häufig umso besser eine Regel bestätigen, indem sie jene erweitern oder in ihrem Umfang beschränken bei mancher Datenlage ist die Wahl zwischen verschiedenen Theorien nicht festlegbar, da nicht eindeutig determiniert..
um dem zu entgehen, hat der Physiker David Deutsch vorgeschlagen, dass eine Theorie nicht nur falsifizierbar sein soll, sie muss auch Erklärungen bieten, bei denen es nicht möglich ist, sie einfach abzuändern, falls ihr neue Erkenntnisse widersprechen David Deutsch forderte dies in seinem Vortrag "A new way to explain explanation" (Juli 2009).. damit soll verhindert werden, dass es fortwährend Kompromisse durch Modifikationen von Lehrmeinungen gibt, welche fällige Paradigmenwechsel blockieren.
wer derartig argumentiert, ignoriert freilich, dass tatsächlich erst neue Paradigmen zu veränderten Sichtweisen in der wissenschaftlichen Orientierung führen und nicht empirische Widersprüche. ob unmittelbar evident oder erweitert durch präzisere Messinstrumente, bleibt die sinnliche Gewissheit stets eine begrenzte Erfahrung, und es ist zu akzeptieren, dass für jede Theorie mindestens eine Alternativtheorie vorliegen kann, welche durch dieselben empirischen Daten gestützt wird.


verum et factum

um Naturwissenschaft betreiben zu können, braucht es die Vorstellung von einer allgemein zusammenhaltenden Wirkkraft wie der Kausalität. auch wenn wirkende Kräfte nicht konkret ermittelbar sind, wird daran festgehalten. wer sich darüber hinwegsetzt und eine verursachende Verknüpfung verwirft, weil sie zu vielen Komplikationen führt, gerät wie einst Bertrand Russel in eine Erklärungsnot, solange er nicht äquivalente Alternativen für kausale Relationen vorzuweisen hat Bertrand Russell schlug 1912 in "The Problems of Philosophy" vor, das Wort Ursache aus dem Wortschatz der Philosophie zu streichen. .
obwohl mathematische Modellierungen für natürliche Phänomene im Mikro- und Makrobereich mittlerweile ziemlich präzise Vorhersagen liefern, liegt bis heute kein akzeptables Konzept vor, das Beziehungen zwischen Ursachen und Wirkungen universell erfasst. alle Versuche, jenes Defizit zu füllen oder zu umgehen, beanspruchen zu unterschiedliche Theorien und lassen sich interdisziplinär kaum händeln lange wurde ein objektiver Kausalitätsbegriff mit einem naiven Naturalismus verbunden, dem diverse zirkuläre Ansätze des Konstruktivismus und der Systemtheorie folgten, aber ebenfalls nicht zu befriedigenden Lösungen führten. .
in der Wirklichkeit liegen zu mannigfaltig verschachtelte Netze von Verknüpfungen vor, so dass keine lückenlosen Ursachenketten zu finden sind. selbst vielversprechend probabilistische Interpretationen, die Zusammenhänge als Wahrscheinlichkeiten verstehen, können bei komplexen Phänomen nur begrenzt für Erklärungen und Prognosen herhalten somit scheint es sich bei kausalen Beziehungen eher um Vereinfachungen zu handelt, mit denen Verhältnisse modellhaft universalisiert werden. . sie sind allerdings als Referenzrahmen oft der einzige Ausweg für das Verstehen vielschichtiger Wechselwirkungen für David Hume war die Gewohnheit ein solcher Referenzrahmen, der dazu verleitet, f├╝r die Zukunft ├ähnlichkeitsbeziehungen aus der Vergangenheit abzuleiten. .
man könnte davon ausgehen, dass sich der Begriff der Verursachung aus der menschlichen Erfahrung eines zweckmässigen Handelns abstrahiert hat. nicht die Beobachtung von Veränderungen in der Wirklichkeit, sondern das Streben, sie für eigene Ansprüche zu beherrschen, scheint für den Gedanken einer ursächlichen Verbindung grundlegend zu sein. dafür reicht es immerhin, dass sich Kausalitäten experimentell in einem festgelegten Setting von Effekten isolieren und technologisch Prozesse optimieren lassen.
als einer der ersten hat sich Giambattista Vico gegen die Vorstellung gewandt, dass eine methodische Wissenschaft die Natur erfassen kann. von der vergleichenden Rechtsbetrachtung eines Hugo Grotius ausgehend, vertrat er die Überzeugung, dass die Geschichte der primäre Gegenstand des Wissens sei. der Mensch könne daher nur die Phänomene bewusst begreifen, die er selbst hervorbringt (verum et factum convertuntur), während die Natur nur der erkennt, der sie erschaffen hat Vico hat in seiner "Neuen Wissenschaft" bereits 1725 den Weg für einen konstruktivistischen Methodenbegriff der Moderne geebnet.. mit einem solchen Ansatz, der eine wesentliche Verwandtschaft zwischen Erkenntnisobjekt und -subjekt radikal einfordert, würde einzig ein Homo ludens die Wirklichkeit verstehen, welche er realiter nachzubauen oder virtuell zu simulieren vermag.


inkonsistentes relativieren

wer universell denkt, stellt sein Wissen in komplexe Bezüge und relativiert es infolgedessen fortwährend. schlimmstenfalls erscheint ihm irgendwann alles als relativ. doch die Feststellung, dass alles relativ sei, ist unakzeptabel, weil absolut formuliert und sich selbst widersprechend. die Aussage, dass alles, was als wahr gilt, nur relativ wahr sein kann, muss hingegen akzeptiert werden. Relativität kann sich immer nur auf Gegebenes beziehen und kein absolutes Prinzip verkörpern.
der Relativismus als philosophische Denkrichtung hat es nie leicht gehabt, insofern er selten als Denkstil überzeugt und zudem sich mit der klassischen Logik schlecht verträgt. er ist entweder inkonsistent, indem er alles als relativ deklariert, ausser die eigene Position, oder trivial, da er lediglich artikuliert, dass Wahrheitsansprüche nie sicher sein können wer die Wahrheit von Aussagen und Prämissen als bedingt ansieht, muss auch bereit sein, sich selbst zu relativieren und dieserart bezähmen. ein Gesamtzusammenhang lässt sich nicht auf die Beziehungen seiner Bestandteile, d.h. allein auf relationale Bezüge reduzieren. er beansprucht immer auch die Wahrheit einer fiktionalen Wesenheit, welche nicht relativiert werden darf.


fragilität des wissens

wo Probleme der Ungewissheit einen immer grösseren Raum einnehmen, ist der Anspruch auf ein sicheres Wissen selbst in überschaubar abgesteckten Bereichen wie der Zoologie oder Oenologie nicht mehr zu haben. die Eroberung der Zukunft durch wissenschaftliches Knowhow führt zu einer Aberration, mit der Perspektiven für Entdeckungen komplexer und unkalkulierbarer werden Durchbrüche wie die Entzifferung des menschlichen Genoms können einen besonderen Entdeckergeist wecken, aber ebenso desillusionierend wirken, wenn deutlich wird, dass es noch weiterer Quantensprünge bedarf, um beim Klonen tatsächliche Erfolge in der Humanmedizin zu erzielen. . langfristig gesehen kommen Wissensdisziplinen mit ihren Entdeckungen wohl zu keiner Auflösung, da neue Erkenntniss stets zu neuen Warum-Fragen oder einem relativierenden Aber führen in vielen Bereichen der Naturwissenschaften werden deshalb die Grenzen zwischen Wissen und Nichtwissen durchlässiger.. sogar technologische Erfindungen, die sich erfolgreich wie die Gen-Manipulationen etabliert haben, sind nicht unfehlbar und mit wachsenden Unwägbarkeiten beanstandbarer denn je.
da Risiken sozialer Steuerungen mit stetig mehr Aufwand reguliert werden müssen, verschlingt die Beherrschbarkeit technischer Systeme besonders im digitalen Bereich zunehmend Ressourcen. es ist ein ewiges Katz-und-Maus-Spiel, das für eine Mobilität von Entwicklungen sorgt, die immer weniger planbar wird.


offene gewissheit

irrtümliche Annahmen führen nicht zwangsläufig zu falschen Erkenntnissen. sie können sich ebenso, wie Gettier Gettier, Edmund L.: Is justified true belief knowledge? Analysis 23.6, Juni 1963. zeigte und vor ihm schon Russell und Meinong Russells Uhrenbeispiel in "Human Knowledge: Its Scope and Limits 1948 oder Alexis Meinongs Halluzinationsbeispiel bereits 1906 formuliert. bei einer falschen Faktenlage rein zufällig als wahr erweisen. die Geschichte der Wissenschaften bietet hierzu einige kuriose Belege. so ermittelte Kepler aufgrund einer abstrusen astrologischen Analogie, dass der Mars zwei Monde besitzen müsse, insofern die Erde nur einen und der Jupiter vier hat, und lag damit richtig. Hegel beharrte gegen das Wissen seiner Zeit auf neun Planeten in unserem Sonnensystem und hat bis heute recht behalten, da nach der Degradierung des Pluto zum Zwergplaneten manche Astronomen wieder nach einem, noch unentdeckten Kandidaten suchen.
wo ein Wissen beansprucht wird, das sich universal an einem unendlichen Ganzen misst, sind niemals ausreichende Informationen für einen Sachverhalt zu bekommen und immer weitere Theorien für ein konsistentes Weltbild erforderlich. man könnte daraus schliessen, dass Wissen als wahre, gerechtfertigte Überzeugung selten vorliege und keine Erkenntnis mit Gewissheit zu rechtfertigen wäre. doch ist streng genommen auch eine solche Erkenntnis nicht unfehlbar, da sie ebenso wenig eine Gewissheit darstellt der wissenschaftliche Anspruch von Wahrheit benötigt immer den Zweifel als Korrektiv, so dass gewonnene Erkenntnisse stets hinterfragbar bleiben..


immanenz des zufalls

seit der Antike ist das Bestreben ungebrochen, mit Verallgemeinerungen das erkennbar Wirkliche einheitlich zu deuten. dabei wird latent vorausgesetzt, dass Unordnungen konträr zu Ordnungen stehen und gleichzeitig als überkomplexer Zustand deren immanenter Bestandteil sein können. ein solcher Widerspruch ist nur zu akzeptieren, wenn der absolute Zufall als eine ontologische Kategorie zwischen Ordnung und Unordnung fungiert Ereignisse, die ohne Grund und damit ausserhalb von Kausalität zustande kommen, wären ein absoluter Zufall. .
das Chaotische, weil vielleicht als Determination noch Verkannte oder per se Fluktuative, kann genaugenommen erst in der Dreierbeziehung Ordnung-Zufall-Chaos in akzeptable Zusammenhänge gebracht werden unter den Naturwissenschaftlern ging Heisenberg erstmals davon aus, dass es im subatomaren Bereich keine Determination und damit absolute Zufälle geben müsse.. um fortlaufend entscheiden zu können, was strukturiert in welcher Form vorliegt und was nicht, braucht das naturwissenschaftliche Denken ein Vermittelndes, das sich jeder Zuordnung entzieht. derartiges kann wohl nur ein Zufall leisten, der weder imaginier- noch symbolisierbar ist und damit als nicht definierbares Medium eine ausseruniverselle Grundlage der Unterscheidung von Ordnung und Chaos garantiert.


streben nach vollständigkeit

vielleicht bedingt nur das menschliche Verlangen nach Vollständigkeit die Vorstellung von einer universellen Weltgesamtheit. es ist nicht zwangsläufig davon auszugehen, dass die Realität dementsprechend vorliegt. ihr könnte genauso gut ein unfertiges, inkonsistentes Werden zugrunde liegen, das sich einem endlichen Kognitionsvermögen entzieht und nur als ein abstraktes Entsprechungsverhältnis zu erfassen ist.
obwohl das menschliche Wissen immer begrenzt bleibt, endet die Vorstellung von einem Universum nicht an den Grenzen der erfassbaren Welt. wie beschränkt auch das Erkenntnisvermögen sein mag, seine Reichweite bleibt grundsätzlich offen und kann jedes Aussen durch Phantasie mutmassend antizipieren. für das Streben nach Vollständigkeit kann das Universale sogar im Plural als Multiversum Parallelwelten werden in der Philosophie seit der Antike unter formalen Gesichtspunkten als logische Beispiele oder hypothetische Annahmen für physikalische Prozesse erörtert. bzw. viele-Welten-Konglomerat konzipiert werden.


hyperkomplexes schlussfolgern

die Logik war für die Griechen im Gegensatz zu einer nur überredend-wollenden Rhetorik eine Instanz für das korrekte Argumentieren das ambivalente Verhältnis von Logik und Rhetorik ist bei wechselseitigen Geltungsansprüche von alters her ein konfliktgeladenes und hat langfristig zu einer Logisierung der Rhetorik und zu einer Rhetorisierung der Logik geführt.. mit jenem Anspruch etablierten sie nachhaltig ein Schlussfolgern, das Verbindlichkeiten für alles und jeden einfordert, und seit Kant zunehmend transzendental verwendet zu einer allgemeinen Theorie des Denkens wurde. daran hat sich mit der Ablösung der Naturwissenschaften von philosophischen Grundsätzen wenig geändert, obwohl nach wie vor ungeklärt bleibt, ob ein logisches Operieren dem Menschen a priori gegeben ist oder nur ein Desiderat seines Sprachvermögens darstellt.
für moderne wissenschaftliche Ansprüche hat sich ein logisch widerspruchsfreies Schliessen durchgesetzt, insofern es einen Konsens erbringt, der unabhängig von Personen und örtlichen Gegebenheiten Wissen verallgemeinert. somit ist die Logik einerseits eine interaktive Praxis für das Kommunizieren geblieben und andererseits eine sich weiterentwickelnde Strategie für Erkenntnisansprüche. die Reichweite verringert sich allerdings, wenn Sachverhalte komplexer analysiert werden und sich der Wissensstand bei einer sinkenden Halbwertszeit von Theorien ausspezialisiert denn wo ein zusammenhängendes Regelsystem richtiger Aussagen angestrebt wird, engt es den Rahmen von Konklusionen ein und kann zu Paradoxien führen..
logische Theoreme beanspruchen mittlerweile immer mehr Erweiterungen, die wie bei der intuitionistischen oder mehrwertigen Logik überlieferte Prinzipien und Operationen ignorieren oder extendieren. damit erhöht sich die Zahl von Wahrheitsfunktionen und Ausnahmebestimmungen, so dass Regeln des Schliessens offener designt werden können. es lassen sich inzwischen mathematische Möglichkeitsräume konstruieren, die so komplex sind, dass sie nur Computerprogramme noch zu händeln vermögen. dies kann zu einer hohen Intransparenz führen, so dass mathematische Beweise, die eine Software erstellt, nicht anerkannt werden, weil sie schlichtweg nicht nachprüfbar sind.


rekursiv definieren

Begriffe sollten nicht zirkulär definiert werden, damit sie nicht bereits das voraussetzen, was sie zu bestimmen haben. bei der Rekursion lässt es sich indes nicht vermeiden. wer den Begriff allgemein erklären will, behandelt ihn unweigerlich rekursiv das Erklären muss sich selber aufrufen und dabei konkretisieren.. wird es als Demonstration verstanden, hat man eine auf sich selbst angewandte Regel rekursiv veranschaulicht.
doch besser wäre es, derartiges mit einem Beispiel wie der Schneeflocke zu versinnbildlichen. hier wird augenscheinlich deutlich, dass sich idem per idem das Prinzip einer Konstruktion selbst konstruiert. eine Software, die solches für den Computerbildschirm darstellt, muss eine Abbruchbedingung begrenzen. ansonsten hängt sie sich in einer Endlosschleife auf. dies gilt ebenso für Metatheorien, die wie der kritische Rationalismus eine alles inkludierende Allgemeingültigkeit beanspruchen, aber nur bedingt auf sich selbst, also rekursiv angewendet werden dürfen bei Metatheorien hat die Klasse der Falsifikationsmöglichkeiten leer zu sein, insofern schon das Bestehen einer Falsifikationsmöglichkeit die Idee der Falsifikation zum Provisorium degradiert..


unverbindliche einbildung

intuitiv verfügt der Mensch meist über mehr Wissen, als mit Gewissheit anzugeben ist. er kann sein Wissen nicht immer ausreichend oder glaubhaft begründen und ist dann klüger, wenn er sich nicht erklären muss. so wie Augustinus nicht klarzustellen vermochte, was die Zeit ist, als er danach gefragt wurde, fällt es zuweilen schwer, Vorstellungen die primär auf Anschauungen beruhen, evident zu begründen für Augustinus war die Zeit deshalb eine subjektive Anschauung der Seele..
ebenso wenig lassen sich Bilder auf eine artikulierbare Verbindlichkeit festlegen. nicht einmal bei einer von einem Computerprogramm imitierten Mondrian-Komposition gelingt dies. auch hier werden ästhetische Erfahrungen initiiert, welche sich nicht allgemein bestimmen lassen. die Unverbindlichkeit des Imaginierbaren trennt von dem Ausdrücksvermögen jeder generierbaren Sprache stets ein Spalt, der nicht mit Deutungen zu füllen ist. oder anders formuliert: die Möglichkeiten des Gestaltbaren übersteigen auf unerklärliche Weise immer die Potentiale des Interpretierbaren in seiner Schrift "Über die Seele" grenzt Aristoteles die Einbildung (phantasia) von der Wahrnehmung (aisthesis) und dem Denken (noein) ab (De an. 427 b 9-12..


erfinden statt finden

was heute als allgemeine Gewissheit gilt, kann morgen schon mit neuen Theorien und anderen empirischen Zugängen widerlegt werden. die Realität gibt im Grossen und Ganzen nicht vor, wie man über sie zu sprechen hat. das meinte jedenfalls Nietzsche, als er in seinem Aphorismenbuch "Jenseits von Gut und Böse" feststellte, dass Philosophen nichts finden, sondern immer nur erfinden "Jenseits von Gut und Böse", Kapitel 3, Erstes Hauptstück: Von den Vorurtheilen der Philosophen . für ihn konnte jedes Wissen nur noch ein Interpretieren sein, so dass seine skeptische Erkenntnistheorie konsequenterweise das Argumentieren aufgab und stattdessen die Naturgeschichte einer allzu menschlichen Sinnsuche fabulierte.


äpfel und birnen

man soll nicht Äpfel mit Birnen vergleichen. sie gehören in einem Obstladen verschiedenen Preiskategorien an und werden wie die Erkenntnisse von Geistes- und Naturwissenschaftlern in einer Alma Mater nach wie vor getrennt abgewogen.
doch wo zu ermittelnde Bezüge sich nicht an althergebrachte Redensarten halten und unbestimmt bleiben, ist ein Vergleichen unumgänglich. der Abgrenzung geht dann ein partielles Gleichsetzen voraus, was immer auch ein allgemeines Relativieren erlaubt. dabei wird irgendwann deutlich, dass vielleicht doch alles miteinander vergleichbar ist. nur das von Philosophen veranschlagte absolut Vereinzelte, das völlig Alogische und in jeder Hinsicht Zufällige bei Hegel war es das reine Sein, das sich jeder Bestimmung entzieht., welches es für Naturwissenschaftler in einem Raum-Zeit-Kontinuum gar nicht geben kann, würde sich dem entziehen.


fokus der vagheit

ohne präzise Begriffe sind keine nachhaltig anschlussfähigen Theorien zu haben. doch kann es solche Theorien überhaupt geben? für Popper reichte es aus, dass ein Begriff nur so exakt vorliegen muss, wie es eine Problemsituation erfordere Karl R. Popper in einem Exkurs über den Essentialismus (siehe: "Ausgangspunkte: meine intellektuelle Entwicklung").. für ihn legte ein epistemischer Anspruch fest, inwiefern bei Definitionen Präzisierungen oder Erweiterungen nötig werden.
mittlerweile sind frei vagabundierende Begriffe in komplexen Theorien unumgänglich geworden. sie müssen nur für den festen Anwendungsbereich zurechtgeschliffen werden und besonders passgenau, wo sie für spezielle Aufgaben in manchen Ingenieur- und Naturwissenschaften zum Einsatz kommen. bei Plato waren Begriffe als Ideen in ewigseienden Urbildern fixiert und wurde derart lange Zeit als Einheiten von Bestimmungen, Prinzipien oder Gegenstandsklassen benutzt.
im Gegensatz dazu enthält bei Hegel die Bedeutung eines Begriffs zuweilen den gesamten Denkweg zu ihm hin und bleibt dabei vieldeutig. auf jene Weise lassen sich bis heute begriffliche Fixierungen wie Knoten in einem Netzwerk verknüpfen, um in einem noch nicht zu definierenden Möglichkeitsraum Fragen immer wieder neu zu stellen um zu neuen, weiterführenden Erkenntnissen zu kommen, denkt man mit der komplexen Vagheit einer Sprache und geht davon aus, dass jedes Raster, welches wie ein Netz über die erkennbare Realität geworfen wird, flexibel sich anzupassen vermag.. wo die Halbwertszeit von Theorien sinkt, bleiben wissenschaftliche Heuristiken darauf angewiesen, sich ebenjener analytischen Mittel zu bedienen, von denen sie eigentlich eine Entlastung suchen. ihre Wahrheiten sind dann fortwährend zukünftig zu etablierende.


gedankenspiele als beleg

kein Lehrbuch der elementaren Logik kann auf den sterblichen Sokrates verzichten und beim Thema der Referenz keine Abhandlung auf den Abend- wie Morgenstern. das Exemplarische ist ein Probierstein des Denkens und gemeinhin eine rhetorische Konkretisierung für die Urteilskraft. wo es schlagkräftig zu überzeugen gilt, kann ein bestechendes Beispiel sogar zum Kriterium der Wahrheit werden. es hat dann abstrakte Gedanken nicht nur zu illustrieren, sondern muss wie bei Gilbert Ryle sogar definitiv Begrifflichkeiten untermauern Gilbert Ryle illustriert in "The Concept of Mind" mit sprachlichen Fehlzuordnungen Kategorienfehler, ohne dafür eine formale Definition vorzulegen..
was in den Naturwissenschaften das empirische Ergebnis eines Experiments übernimmt, leistet oft in den Geisteswissenschaften ein plausibel statuiertes Exempel. es wird für eine These oder wie bei den Gettier-Fällen Gettier zeigte mit simplen Beispielen aus dem Alltagsleben, wie die gerechtfertigte wahre Meinung auch durch einen Schluss aus falschen Prämissen zustande kommen kann. konträr eingesetzt, um die klassische Wissensdefinition in Frage zu stellen. da sich bei hermeneutischen Argumentationen Beweise nicht wie in der Mathematik entwickeln lassen, werden signifikante Exempel statuiert, um Wahrheitsfindungen zu untermauern. ohne sie würden manche Begriffe ihren Kontext verlieren und Theorien gegenstandslos bleiben. dabei darf freilich nicht vergessen werden, dass Beispiele nur unzuverlässige Argumente darstellen. sie können keine objektive Allgemeingültigkeit beanspruchen und wenig beweisen. indem sie lediglich für etwas Bestimmtes eine Vorstellung ermöglichen, bleiben sie vage Behauptungen für das Universelle.


praxis versus poesie

ein dualistische Verständnis von Theorie und Praxis, das die Orientierung am unendlich Ganzen dem faktisch Endlichen gegenüberstellt, verführt schnell zu einseitigen Präferenzen. dabei wird entweder eine praktische Überprüfbarkeit von Wissen oder die vorhergehende Reflexion für das Handeln favorisiert. die Puristen der einen wie der anderen Seite sind allerdings ausgesprochen praxisfern mit ihren Festlegungen. Theorien wie die Newtonsche Mechanik oder die Wärmelehre wurden nicht aufgrund der zur Verfügung stehenden Daten entworfen und ebenso wenig sind Fakten in Laboren nur gesammelt worden, ohne dass dafür ein heuristischer Anlass vorlag.
jedem Laborieren und Herumtüfteln gehen seit jeher Überlegungen voraus, die auf Verallgemeinerungen zielen, das Problem, dass es keine Tatsachen ohne Theorien gibt, hat immer wieder zu Krisen des Empirismus, des Induktionismus und Positivismus geführt. und es gibt kaum wissenschaftliche Konzepte, die ohne praktische Erfahrungen auskommen. nicht einmal die Mathematik erlaubt derartiges, weil sie ein händelbares Zahlenverständnis vor jeder Regelbegründung voraussetzt. das widersprüchliche Privilegieren der Praxis gegenüber der Theorie oder umgekehrt ist vermeidbar, wenn man das Theoretisieren per se als Aktivität versteht. d.h. als einen Akt, der sich mit mentalen Prozessen und kommunikativen Interaktionen in der Weise einer Technik oder Poesie die Poesie ist immerhin ein fundamentales Alphabet des menschlichen Denkens und kann sich immer wieder als zuverlässiges und letztgültiges Instrument zur Aufdeckung der Wahrheit erweisen. ereignet.


exklusives philosophieren

das philosophische Denken verliert zunehmend die Verbindung zum wissenschaftlichen Fortschritt. während es bei Aristoteles noch selbst Wissenschaft war und im Mittelalter sogar Königin der Wissenschaften, ist heute ein Erkenntnisstreben ohne konkrete Anwendungsbereiche entthront. seitdem Wissen primär an technologischen Erfolgen gemessen und zuvor durch Apparate in Laboren geprägt wird, hat die Philosophie als übergeordnetes Ressort abgedankt. sie kann selbst mit stark verallgemeinerten Denkansätzen den Wissenschaftsprozess nicht mehr als Ganzes reflektieren auch der allgemein erklärenden Erkenntnistheorie gelingt es nicht weiterhin, fachübergreifend die Voraussetzungen und das Zustandekommen von Erkenntnissen zu thematisieren..
wenn wissenschaftliche Ansprüche sich ausspezialisieren und in immer neueren Disziplinen Erkenntnisbereiche erfassen, werden Experten rar, die enzyklopädisch übergreifende Kompetenzen ausbilden und durchzusetzen vermögen. Gaston Bachelard, der eine solche Forcierung bereits im vergangenen Jahrhundert voraussah, warnte daher, dass irgendwann jedes wissenschaftliche Problem, jedes Experiment, ja sogar jede Gleichung einer eigenen Philosophie bedarf Gaston Bachelard in "Die Bildung des wissenschaftlichen Geistes", 1938.


zwang zum konsens

in wissenschaftlichen Diskursen werden Erkenntnisprozesse nachvollziehbar kommuniziert das Ziel wissenschaftlichen Arbeitens ist nach wie vor die systematische und nachvollziehbare Darstellung von Erkenntnissen.. im Normalfall tauschen Koryphäen einer Denkschule Informationen und Überzeugungen unmissverständlich aus. erst Unstimmigkeiten führen dazu, dass über das Verhältnis zwischen dem, was jemand sagen will, und dem, was ein anderer versteht, so lange dis- oder rekursiv verhandelt wird, bis sich ein Konsens kohärent einstellt.
kommt er nicht zustande, ist der Austausch meist von zu verschiedenen Kompetenzen und Interessenlagen bestimmt. darüber kann man sich ausgiebig auf Symposien und in internen Fachzirkeln verständigen. doch auch hier gilt, dass wo Wahrheitsansprüche erhoben werden, sich nur nachvollziehbar kommunizieren lässt, was präzis vermittelt wird.


artifizielles sprechen

eine künstliche Intelligenz operiert rein nach rationalen Kriterien und kann sich daher bestens vernetzen. erst für die Kommunikation mit uns Menschen benötigt sie ein Interface, das symbolische Sprachelemente in konkrete Mitteilungen übersetzt. darauf sind sogar Programmierer angewiesen, da sie bei einer steigenden Komplexität von Operationen einem floatierenden Code im Detail nicht mehr zu folgen vermögen eine nur aus Binärzeichen bestehender Code ist die einzige Sprache, die ein Computer, aber fast nie ein Mensch verstehen kann..
optimieren sich bei zunehmender Komplexität Software-Systeme völlig abgekoppelt von einer menschlichen Obhut, operieren sie selbstbezüglicher auf einer virtuellen Ebene es wird ihnen aber bei virtuellen Operationen der Sinn für ihr Handeln fehlen. . irgendwann haben sie bei sich potenzierenden Verarbeitungs- und Speicherkapazitäten ein komplementäres Vermögen für doppelsinnige Sprachanalogien, das intuitive Problemlösen und vielleicht sogar eine moralische Empathie entwickelt, sind aber nicht in der Lage, eine Vorstellung ausserhalb ihres Paradigmas zu abstrahieren. ihre Möglichkeiten bleiben an Notwendigkeiten des rationalen Operierens gebunden und somit können sie nicht wie der Mensch im Denken eine Vorstellung für ein Ganzes als ein sich jeder Ordnung entziehendem, da vorausgehendem Einen entwickeln der Mensch kann sich einer rationalen Komplexität nur begrenzt anpassen, allerdings komplexen Phänome sehr gut intuitiv erfassen..


entropischer kontrast

wo Informationen auf einem Bildschirm von einem Rauschen unterdrückt, Gespräche durch ein Knacken gestört und Bilder zerpixelt werden, liegen Störungen vor. sie richten sich gegen eine festgelegte Funktionalität und können Gegebenes derart beeinflussen, dass es sich bis zur Unkenntlichkeit auflöst Störung werden meist als Abweichung von technischen Parametern und kommunikativen Erwartungen wahrgenommen.. solche Zerfallserscheinungen sind das Ergebnis von interferenten oder entropischen Prozesse, die auch in digitalen Medien die beste Technologie nicht zu bändigen vermag. selbst bei mit Redundanzen arbeitenden Übertragungen kommt es zu gravierenden Abweichungen, welche sich nur aufwendig oder gar nicht kompensieren lassen.
wird die Störung als Teil der Normalität angesehen, stellt sie einen Parameter dar, der hinzukommend eingreift und Erwartungen unterläuft. in einem chaotischen System, in dem alle möglichen Zustände Informationen wären, würde sie sich der Wahrnehmung hingegen völlig entziehen. Störungen benötigen für ihre aisthesis die semiosis einer erkennbaren Ordnung, d.h. immer etwas weniger als alles Mögliche da immer ein Allzuviel an Informationen zwangsläufig zu einem Rauschen führt..


ungewissheit der anschauung

ist ein Wissen ohne den Menschen denkbar? es müsste wohl ein Wissen sein, das auf neutralen, subjektunabhängigen Anschauungsformen beruht und auch für eine extraterrestrische Intelligenz zu verstehen wäre. als die NASA erstmals in Kupfer gestochene Informationen über die Erde mit einer Sonde in den Weltraum schickte eine Plakette in der Sonde Pioneer 10 zeigt in der oberen Ecke ein Wasserstoffmolekül, darunter die Postion der Erde im Weltall und daneben zwei nackte Menschen mit Grössenangaben., gingen Wissenschaftler noch davon aus, dass dies auf Naturgesetze zutreffe, die überall von jedem intelligenten Wesen mit denselben algebraischen Relationen erfasst werden.
inzwischen sieht man Regularien der Natur skeptischer und setzt nicht mehr voraus, dass menschliche Verallgemeinerungen für eine fremde Intelligenz per se nachvollziehbar sind. Wissen ist stets an Sinnfragen und einen konkreten Lebensvollzug gebunden. als Vermögen sich etwas repräsentativ anzueignen, charakterisiert es mehr einen kognitiven Phänotyp als die ihn umgebende Realität und es ist daher unwahrscheinlich, dass ausserirdische Bewusstseinsformen auf dieselbe Weise wie der Mensch eine Wirklichkeit erfassen. sie werden wahrnehmbare Determinationen in einem kognitiven Eigensystem modellieren, das aus ihrer Sicht zwar auch universell ist, aber nicht unseren Anschauungen entsprechen muss. vielleicht haben sie sogar völlig andere Vorstellungen von Raum und Zeit, so dass sie gar nicht in einem gleichen Universum existieren.


einsamkeit im denken

für Kant ist eine reflexive Selbstreferenz konstitutiv für das Denken, da erst ein alle Vorstellungen begleitendes Ich es ermögliche, mentale Akte zu bündeln. seine primär auf Erkenntnisgewinn ausgerichtet Subjekt-Auffassung ignoriert allerdings das Begreifen von inneren Erfahrungen und damit den Einfluss von Gefühlszuständen, von Wünschen und Absichten auf mentale Prozesse.
wahrscheinlich hat Kant jenen Bereich absichtlich ausgeblendet, weil ihm klar war, dass im Unterschied zur wahrgenommen Aussenwelt immanent vorliegende Empfindungen seltenst ein begriffenes Wissen darstellen bei Kant begreift der Verstand nicht die einzelnen Empfindungen, er deduziert nur abstrakt ihr Bestehen. . so können innerliche Verfassungen nicht wie wahrgenomme Objekte intentional im Denken repräsentiert, nur sui generis analysiert werden. wer daher rein introspektiv sein Denken zu bedenken versucht, muss es akzeptieren, sich selbst ein Fremder, ein einsamer Intimissimus in einem unfokussierbaren Horizont zu sein dennoch ist auch davon ausgehen, dass der Mensch, je mehr er erkennt, desto mehr sich selbst erkennen wird. wäre es nicht der Fall, würde die Erkenntnis je mehr sie steigt, desto mehr ein unmenschliches Wissen werden..


glauben im wissen

warum muss der Mensch auch einen Glauben für sein Wissen haben? reicht es nicht aus, sich einzugestehen, lediglich eine Meinung von universellen Zusammenhängen zu vertreten. da für die allermeisten Erkenntnisse nicht sämtliche Implikationen eruierbar sind, bleiben sie sowieso ein zweifelhaftes Wissen, an dessen Geltung geglaubt werden muss. ein solcher Glaube ist die Hoffnung, dass dem Verstehbaren trotz mangelnder Überprüfbarkeit eine unbedingte Geltung zukomme. nur wo es um das Unbedingte, also das Absolute geht, beginnt eigentlich das Feld der Religion.
das rationale Denken kann nicht an den Glauben an eine unbedingte Einheit im Denken verzichten, er muss als Anspruch immer wieder behauptet werden das absolute Wissen als die höchste Stufe bildet bei Hegel erst den Rahmen für die Beantwortung der Frage nach der höchsten Erkenntnis.. würden Theorien sich nur auf konkret Vorliegendes beziehen, bliebe kein Raum mehr für Abstraktionen, die nicht im Faktischen aufgehen.


kontinuum des geistes

können Tiere denken? vermutlich besitzen alle Säugetiere und einige Vögel ein intentionales Bewusstsein, das dem menschlichen ähnelt bis ins 17. Jahrhundert hinein galten Tiere als eine Sache. Descartes sprach ihnen sogar jegliches Gefühlsleben ab.. Insekten wie Bienen oder Ameisen, welche über ein sehr kleines Gehirn verfügen, vollbringen als Individuen in einem komplex organisierten Staat sehr effizient intelligente Leistungen, und ohne Nervensystem können Einzeller seit Millionen von Jahren unter verschiedenen Bedingungen gut angepasst überleben.
die Natur durchzieht wohl ein Kontinuum des Geistes, der sich mit der Evolution als intelligentes Verhalten vielfältig und unabhängig voneinander verwirklicht hat. zur Transzendenz befähigt stellt der Menschen vielleicht nur eine bedingte Variante von diesem Vermögen dar, da er zu seiner Umwelt sich distanziert positioniert hat. seine Intellegenz ist eine symbolische geworden und dazu verdammt, weltoffen zu agieren.


anschauung als apriorie

braucht das Denken die Anschauung eines geometrischen Raumes? da sich gewohntermassen die Aussenwelt nur derart in der Wahrnehmung darstellt und erkennen lässt, muss die Frage wohl bejaht werden. ohne die Einordnung der Anschauung müssten Vorstellungen von der Wirklichkeit und Begriffe über sie ins Leere laufen. doch würde es nicht ausreichen, das Gegebene als eine topografische Ordnung strukturell zu relationieren, d.h. nur mit Zahlenverhältnisse zu erfassen?
für Kant waren Raum und Zeit apriorische Formungen, welche nicht den äusseren Erscheinungen zu Grunde liegen und in ihrer Spezifik nur eine Eigenheit der menschlichen Kognition darstellen. demnach lässt sich die bewährte Dreidimensionalität unseres Anschauungsraumes nicht damit begründen, dass die physische Welt selbst über eine drei- oder vierdimensionale Struktur verfügt. es reicht aus, dass alles Wirkliche nur räumlich erscheint und nicht von einem tatsächlich vorliegenden Koordinatenkreuz geordnet wird. das vom Menschen erzeugte Bezugssystem ist lediglich ein mutables Konstrukt, das als euklidische Geometrie oder hyperbolische Mannigfaltigkeit sich eine geordnete Anschauung schaffen kann.
bei manchen Tieren garantiert bereits eine zweidimensionale Verortung die präzise Orientierung, und es wäre vorstellbar, sogar eindimensional das Umgreifende, wie bei einer Turingmaschine als linear durchlaufenden Datenspur zu erfassen. das sich mit seinen Sinnesorganen und dem Hirn evolutionär entwickelte Wahrnehmungsvermögen hat spezifische Raumvorstellungen für das Überleben von Organismen herausgebildet. nur der Mensch ist nicht daran gebunden. sein Wahrnehmungsapparat kann gedanklich die biologische Disposition übersteigen, so dass dann ein angeborenes anisotropes Raummass, das Tiefen weiter entfernt zeigt, korrigierbar ist ein lediglich widerspiegelndes Erfassen der Umwelt wäre immer eine auf Sinnesdaten recht begrenzte Wahrnehmung..
mit dem Vermögen körperliche Verhältnisse zu abstrahieren lassen sich Anschauungen erweitern und mit mathematischen Modellen sogar bis ins Unendliche hyperdimensional kalkulieren wird die Orientierung als eine Wechselwirkung mit Qualitätsänderungen verstanden, können eingehende Daten dahingehenden modelliert werden, dass sie eine Anpassung durch Lernprozesse darstellen, die effizient sich eigene Anschauungsräume konstruieren.. so werden nicht nur Wahrnehmungsverzerrungen ausgeglichen und Erfahrungshorizonte modellhaft auf kosmologische Grössen erweitert, sondern der Anschauungsraum generell mit rein topografischen Verhältnissen relativiert. vielleicht werden räumliche und zeitliche Vorstellung irgendwann von rein strukturellen Abstraktionen erfasst und somit nicht mehr der Ausgangspunkt für kognitive Prozesse sein.


manipulierte wirklichkeit

was natürlich ist, kann in einem Garten nicht künstlich sein. es ist etwas eigenwillig Gewordenes und nichts Gemachtes. im Gegensatz dazu liegt das, was gehegt und gepflegt wird, in einer gewollten Wuchsform vor, der eine Absicht zugrunde liegt. dafür werden Pflanzen gezüchtet oder ihr Erbgut genetisch so verändert, dass spezifische Potentiale in vorliegenden Biotopen zum Zuge kommen. dies gilt ebenso für die Experimentalwissenschaften, insofern in Laboren die Phänomene, welche zu untersuchen sind, meist aufwendig selektiert werden.
diffizile Zusammenhänge lassen sich bei physikalischen Prozessen erst erkennen, wenn Komplexität überschaubar, d.h. meist reduziert vorliegt. umso exakter Wissenschaftler dabei operieren, desto weniger haben sie es vielleicht mit einer tatsächlich existierenden Wirklichkeit zu tun. für Versuche in Hightech-Laboren, Blasenkammern und Teilchenbeschleunigern müssen heute Bedingungen geschaffen werden, die als Normalität äusserst selten oder überhaupt nicht bestehen der Wissenschaftstheoretiker Ian Hacking meinte, dass Forscher manche Effekte oder Phänomene, von denen ihre Untersuchungen handeln, im Experiment erst erzeugen. für ihn gehen dann Experimente den Theorien voraus, ihre Untersuchungsobjekte sind jedoch reale Entitäten, insofern es sich um kausale Agenten handelt.. das technologische Potenzial bestimmt dann, was konkret epistemisch zu rechtfertigen ist, und das epistemische Potenzial, was technologisch relevant sein kann die Unterscheidung zwischen Natürlichkeit und Künstlichkeit wird somit irrelevanter und mehr eine phänomenologische Beschreibungsweise..
Giambatista Vico hatte schon vor 300 Jahren erkannt, dass Menschen nur das verstehen, was sie selbst hervorgebracht haben. damit stellte er nicht nur die antike Überzeugung in Frage, dass jede techne auf eine episteme, also alles Handlungswissen auf ein kontemplatives Wissen beruhe, vielmehr zeichnete er unter dem Handlungswissen, das produzierende als das aus, welches erst zu einer Einsicht führt.


technik als prüfstein

die Technik ist zum Prüfstein des Wissens geworden und, wo sie erfolgreich theoretisches Wissen in ein praktisches System transformiert, auch das Zertifikat für wissenschaftliches Know-how. technologische Erfindungen werden somit immer mehr zu einer Sinnstiftung der Forschung. sie entscheiden in Laboren nicht nur über die Berechtigung einer Theorie, sie verkörpern sie mitunter geradezu, da erst das, was im Mikro- oder Makrobereich technisch erfasst wird, wissenschaftliche Modelle unterfüttert schon Gaston Bachelard meinte, dass technische Instrumente tatsächlich die Verkörperungen von Theorien sind, die sie überprüfen..
in einer kontingenten Umwelt haben sich Technologien für die Heuristik und als basaler Mechanismus der Kontrolle bewährt. wo sie physikalische Prozesse in kausal fixierten Abläufe halten, binden sie recht wirksam zukünftige Erwartungen die Technosphäre ist eine Welt, die der moderne Mensch in der Technik erschafft und durch sie auch begreift.. selbst Misserfolge führen dann nicht zur Abkehr, sondern zum Ausbau von technischen Systemen, um Nicht-Wissen in gültiges Wissen zu transformieren.
für Arnold Gehlen war der Mensch als Mängelwesen dazu verdammt, sich mit der Technik entsprechend seinen steigenden Bedürfnissen die Umwelt zu gestalten. doch man kann ebenso wie der Soziologe Helmut Schelsky argwöhnen, dass Technik nicht eine notwendige Mängelkompensation sei, sondern eine blosse Überschussleistung, die letztendlich mehr Probleme schafft als löst eine komplex raumgreifend sich entwickelnde Technik führt zur Entstehung eines globalen Metasystems, das sich in Konkurrenz zu Bio- und Geosphäre herausbildet..


grenzen der arithmetik

unter den Wissenschaften ist zuerst die Physik dazu übergegangen, die Mathematik als zuverlässigsten Beweis ihrer Theorien anzusehen. denn Phänomene der Natur lassens sich bestens als Regelmässigkeiten ermessen und mit algebraischen Äquivalenzen als Strukturaffinitäten darstellen. Übereinstimmungen haben aber nicht ihren Grund in geheimnisvollen Naturgesetzen, denen Teilchen gehorchen, sondern vielmehr darin, dass die experimentellen Bedingungen, mit denen physikalische Prozesse quantifiziert werden, für das menschliche Erkennen modelliert werden.
Zählen setzt ein Beobachten und das Beobachten einen Beobachter voraus. die Realität ist nicht von sich aus gemäss der Abzählbarkeit ihrer Objekte geordnet, und wo reale Instanzen nicht quantitativ formulierbar sind, stösst die mathematische Physik an Grenzen. jede Berechnung ist nur so gut und brauchbar, wie sie formelhaft die Verhältnisse der Natur berücksichtigen und darstellen kann. wo Algorithmen nichtlineare und chaotische Komplexitäten zu berücksichtigen haben, können, wie bereits beim Bahnverlauf von drei annähernd grossen Körper, mit elementaren Funktionen Prozesse nicht mehr präzis kalkuliert werden das Zweikörperproblem ist durch die Keplerschen Gesetze lösbar, während die Integrale ab drei Himmelskörpern keine algebraischen Lösungen mehr ergeben. es ist unmöglich, ein vierdimensionales Vektorenkonglomerat zu berechnen..
es besteht kein Zweifel daran, dass die Natur weitgehend symbolisch und auf diese Weise mathematisch beschreibbar ist. die Mathematik ist eine kompakte Sprache, mit der sich wissenschaftliche Modelle formulieren und auf eine logische Konsistenz hin überprüfen lassen. ohne eigene physikalische Realität schafft sie mit ihren Strukturen kalkulierbare Möglichkeitsräume, um Hypothesen zu verfeinern und um darüber hinaus Vorstellungen wie die des Unendlichen und des Irrationalen denkbar zu machen das mathematische Kontinuum hat seit der griechische Antike den philosophischen Diskurs befruchtet.. es stellt sich daher die Frage, ob die Mathematik nur ein Handwerkszeug des Physikers ist, mit dessen Hilfe sich das Universum beschreiben lässt, oder ob die Realität selbst eine arithmetische Struktur darstellt und somit vielleicht Physik und Mathematik am Ende eins sind oder es einmal werden?


nach der wissenschaft

was wird es nach der Wissenschaft geben? da das systematische Erkunden der menschlichen Wirklichkeit als Kulturtechnik Weiterentwicklungen unterliegt, muss konsequenterweise auch irgendwann eine höhere Form der Erkenntnis- und Weltbildproduktion erreicht werden. das wissenschaftliche Denken hatte mit welterklärenden Mythen seine Vorläufer und wird wohl ebenso Nachfolger haben.
es ist davon auszugehen, dass zukünftige Erfolge bei der Genese von Begründungszusammenhängen fast ausschliesslich mit technologischen Innovationen und mit den Analysen einer künstliche Intelligenz KI-Technologien können nicht nur menschliches Routineleistungen im Computer nachbilden, sondern mit Expertensystemen optimiert auch zunehmend autonomer agieren. erreicht werden. bereits jetzt sind ohne Hightech-Apparate, mediale Veranschaulichungen und digital sich steuernden Datenverarbeitung kaum noch neue Entdeckungen möglich. in naher Zukunft organisieren bestimmt primär intelligente Algorithmen die Wissensproduktion als strukturelle Mannigfaltigkeiten und erfassen für den Menschen in schwer überschaubaren topografischen Räumen rationale Zusammenhänge eine hyperdimensionale Topografie setzt einen Raumvorstellung voraus, die durch mindestens vier Koordinatenachsen konstituiert wird. in solch einem Raum kann man Strukturzusammenhänge nicht als eine reale Gegebenheit wahrnehmen, da sie die menschliche Imaginationskraft überfordern.. vielleicht wird es einmal unvorstellbar sein, dass ein technologischer Fortschritt an die Beschränkung einer anthropologischen Vorstellung gekoppelt war.


vagheit des logischen

das Digma des logischen Denkens ist seine Widerspruchsfreiheit. die klassische Logik verband jene Forderung sehr lange nach Aristoteles problemlos mit der ontologischen Binarität von Sein oder Nichtsein, so dass etwas nicht zugleich als wahr und falsch vorliegen konnte. inzwischen reicht ein solcher Bezug für die wissenschaftliche Heuristik nicht mehr aus, weil sich mit jenem Dualismus schwer auflösbare Widersprüche, wie Hempels Paradoxon oder die Cantorsche Antinomie, ergeben können.
um dem zu entgehen, nutzen erweiterte Logiksysteme seit Frege den logistischen Freiraum der Mathematik und quantifizieren Argumente sowie Schlussfolgerungen mit Kalkülen jene Reduktion fand ihr Fundament bereits im spätmittelalterlichen Nominalismus bei William von Occam und später in der neuzeitlichen Philosophie, die entweder empiristisch oder rationalistisch argumentierte.. ohne ontologischen Bezug darf man hier gegen den Satz vom ausgeschlossenen Dritten verstossen und mit intentionalen Aspekten der Alltagssprache operieren. die Fuzzy-Logik erlaubt es sogar mit statistischen Berechnungen die Vagheit eines Möglichkeitsraumes verifizieren. Unschärfen werden dabei wie bei einer Wetterprognose mehr oder weniger präzis als graduelle Wahrscheinlichkeiten erfasst, so dass sie sich diskret berechnen lassen.
bei Peirce wurde das logische Operieren selbst das Dritte. dafür führte er, in Analogie zu seinem triadischen Zeichenmodell, die logischen Terme des absoluten, des einfachen und des konjugativen Relativen ein. der ontologische Status des Relativen wird zu einem informellen Sein, das sich rein aus strukturellen Beziehungen ergibt ein sich daraus ergebendes Informiert-Sein beansprucht dabei als eine konkrete Wirklichkeit ebenso einen ontologischen Status.. mit diesem Ansatz konnten kybernetische Modelle die ontologische Binarität von Sein und Nichtsein in immer komplexere Verhältnisse aufspalten und multilateral relativieren bei Gotthard Günther kann eine Polykontexturalität mehrere Bezugsrahmen behandeln, ohne dass eine Selbstreferenz in logischen Zirkeln strandet..
technologische Innovationen profitieren inzwischen im Bereich der künstlichen Intelligenz ungemein von einer solchen Weiterentwicklung. aber ebenso die Naturwissenschaften, da sie sich weniger an einen ontologisch fundierten Wahrheitsbegriff gebunden fühlen. sie können selbstbezüglich Modelle entwickeln und mit ihnen Phänomene als poietische Prozesse beschreiben. doch das Schlussfolgern ist mit der Öffnung zum Strukturellen ein komplex vages Unterfangen geworden und mitunter nur noch mit grossen Rechenkapazitäten operational zu bewältigen.


bodenloser fortschritt

mit Abstraktionen und formalen Verallgemeinerungen strebt das Denken nach universellen Erkenntnissen. auf jene Weise sollen immer komplexere Kombinationen des Tatsächlichen erfasst werden, um die Welt mit wachsenden Erkenntnisfortschritten zunehmend als Ganzes zu verstehen.
doch kann es einen solchen Sachverstand überhaupt für den Menschen geben? ein Gesamtzusammenhang, der physikalische Prozesse universell als Raum- und Zeitrelationen erfasst, wäre eigentlich nur von einem Laplaceschen Dämon zu erfassen. eine endliche Intelligenz muss sich damit begnügen, grundlegende Wechselwirkungen der Natur in eine universell fundamentale Relation zu bringen. ein derartiger Anspruch ist allerdings ebenso ein bodenloses Ansinnen. denn zum einen sind die Naturwissenschaften, wie es einst Heidegger zum Vorwurf erhob, nicht gewillt oder in der Lage, ihr Wissensgebiet grundlegend zu definieren Heideggers Einwurf, dass die Wissenschaft nicht denken kann, ist deshalb kein Vorwurf, sondern eine Feststellung. (Was heisst denken? 4. Aufl. Tübingen: Niemeyer 1984, S. 4)., und zum anderen ist auch kein absehbares Niveau zu erwarten, das sie zu einer abschliessenden Kohärenz kommen lässt.
solange es etwas zu deuten gibt, solange das Wesen der Dinge und ihre Erscheinungsformen nicht unmittelbar zusammenfallen, muss es wohl akzeptiert werden, dass fortwährend komplexere Probleme, weitere Formen des Nichtwissens und paradigmatische Krisen evoziert werden, ohne dafür einen allumfassenden Rahmen reklamieren zu können nach Marx wäre alle Wissenschaft überflüssig, wenn dies einmal der Fall wäre (Kapital III, MEW 25, 825.).


wissen prognostizieren

Kant hat drei Arten des Fürwahrhaltens unterschieden: den Glauben, das Meinen und das Wissen. seitdem für wissenschaftliche Innovationen weniger statische Gewissheiten, sondern zunehmend prozessuale Entwicklungspotentiale gesucht werden, müsste das Prognostizieren als vierter Modus hinzugefügt werden. das Wissen hat als höchste Form des menschlichen Zugangs zur Wirklichkeit ausgedient, wenn allgemeingültige Wahrheiten nicht mehr zeitunabhängig und vor allem nicht ohne Unwägbarkeiten und bei technologischen Erfindungen nicht ohne Risiken zu haben sind es ist auch davon auszugehen, dass sich Voraussetzungen mit der Zeit definitiv wandeln und durch einen veränderten Zugang zur Wirklichkeit immer häufiger einen Perspektivenwechsel erzwingen.. jener Herausforderung kann wohl erst ein epistemisches Prognostizieren gewachsen sein, das in und mit einem künftigen Entwicklungsstand operiert Prognosen sind Vorhersagen, die als mathematische Wahrscheinlichkeit entweder kalkulierbar sind oder auf Ahnungen beruhen..
in einer Zeit des permanenten wissenschaftlchen Fortschritts, wird wie an der Börse auf einen Entwicklungssprung, eine künftige Geltung von Wissen spekuliert. eine derartige Prätention orientiert sich weniger am tatsächlich Vorliegenden als vielmehr an einem zu erwartenden Zuwachs an Erkenntnissen. für solche Orientierungen sind nicht nur ständig höhere Bemühungen zu investieren, es ist auch ein Kredit zu zahlen, der zu einer hohen Verschuldung führen kann, insofern mit jeder Antwort sich neue Fragen ergeben und nachhaltig Unwägbarkeiten vor allem bei technischen Forcierungen zu erwarten sind.


kausale simplifikationen

die Technik ist für Kausalitäten ein ideales Medium, da es mit hier erst gelingt, in geregelten Kreisläufen Effekte als stabile Beziehungen zu optimieren. eine solche Segretion kann aber auch als ein Korsett angesehen werden. denn wo Maschinen und Prozessoren in einem spezifischen Setting mit einer hohen Taktfrequenz operieren, werden kausale Abläufe von wirklichen Zusammenhängen isoliert solche Optimierungen müssen daher regelmässig gewartet werden oder sich automatisch regulieren..
für technische Optimierungen gibt es in der Natur selten adäquate Vorlagen. der Mensch schafft dafür erst die nötigen Bedingungen und seine Leistung besteht nicht darin, stabile Ursache-Wirkungs-Beziehungen entdeckt zu haben, sondern in der Lage zu sein, die Voraussetzungen ihres Zustandekommens zu reproduzieren. doch Handlungsspielräume können nur nachhaltig ausgebaut werden, solange es gelingt, Effekte fest zu installieren und von unerwünschten Einflüssen zu unterbinden.
für Luhmann waren technische Artefakte kausale Simplifikationen, welche nur für bestimmte Ereignisse Zukunftsbindungen erlauben Technik konstruiert für Luhmann eine kausale Simplifikation für einen Erwartungszusammenhang, der sich auf eindeutig funktionierende Ursache-Wirkungs-Beziehungen beschränkt. und daher ein reduziertes Wissen verkörpern, das bei wechselnden Ansprüchen auf fortwährende Innovationen angewiesen bleibt. ein solches Defizit ist auch bei Entwicklungen der künstlichen Intelligenz zu konstatieren, insofern sich hier komplexe Prozesse auf festgelegte Anwendungen forcieren. obwohl inzwischen grosse Erfolge beim Schach bzw. Go-Spiel und in der Datenverwaltung erzielt werden, gibt es bisher keine eigenständige Weiterentwicklung als autonome Reproduktionen im Sinne einer Koevolution denn müssen sich kausale Beziehungen als Manipulation allzu optimiert profilieren, sind im Sinne einer Koevolution keine Selektionsprozesse möglich.. die Potentiale der künstlichen Intelligenz bleiben an menschliche Erwartungshaltungen gebunden und damit eine Hybrid von Kulturleistungen.


notwendige inkonsistenzen

das Wirkliche der Wirklichkeit muss mehr als die Gesamtheit aller Tatsachen umfassen. der Mensch will es jedenfalls so, insofern er das Ganze von realen Zusammenhängen kohärent zu fokussieren versucht. dabei wird grundsätzlich vorausgesetzt, dass sich Widersprüche auf einer Metaebene, in einem noch nicht erfassbaren Gefüge von Relationen austarieren denn die Erfahrung lehrt, was als Ausschnitt widersprüchlich erscheint, passt meist in einem umfassenderen Verbund stringent zusammen..
für Nikolaus Cusanus war in seiner Lehre von der coincidentia oppositorum jede Welterfassung eine perspektivische, da sich unter verschiedenen Blickwinkeln gleiche Dinge unterschiedlich darstellen. erst eine letzte Wahrheit, welche für ihn nur eine göttlich absolute sein konnte, würde solche Differenzen aufheben es muss über Perspektivität und den mit ihr verbundenen Gegensatzcharakter auf Nicht-Kontrarietät hinausgedacht werden.. eine solche Wahrheit als unbedingte Nullperspektive ist für den Menchen aber unvorstellbar und muss daher eine Wunschvorstellung bleiben, während das Reale überdeterminiert vorliegt und vielleicht gar keinem Konsistensgebot folgt.


überdeterminierte fragen

was kann der Mensch nicht wissen? was soll er nicht tun? und was darf er sich nicht erhoffen? seitdem Chancen und Risiken für technologische Entwicklungen unbestimmbarer abzuschätzen sind, ist es wichtig geworden zu wissen, was man nicht erkennen kann oder besser nicht erstreben sollte bereits Sokrates versuchte durch ein meist vorgetäuschtes Nichtwissen neue Erkenntnisse zu gewinnen..
wird wissenschaftliches Knowhow vermehrt mit technischen Entwicklungen verknüpft, nehmen schwer kalkulierbare Eingriffe in natürliche Kreisläufe zu und führen zu einer neuen Form des Nichtwissens. mit einer grösser werdenden Eindringtiefe artifizieller Systeme lassen sich nachhaltige Probleme seltener voraussehen, sie können bei einem wachsenden Wissensstand nur als überdeterminierte Unbestimmbarkeiten ambivalent erfasst werden. Entscheidungs- und Handlungsprozesse benötigen deshalb eine stetig höhere Absicherung, welche vermehrt kollektive Ressourcen verschlingt oder bei Unwägbarkeiten wie der Gen-Manipulation bereits zu juristischen Verboten führt bei zunehmenden Risiken wird die Forderung, manches Wissen restriktiv zu unterbunden, vehementer vorgetragen..


topografie des denkens

aus einem Hier und Jetzt heraus entfaltet sich das Denken und ist von einem reflektierenden Subjekt, der Perspektive einer mentalen Identität nicht abzulösen. dennoch kann der Ort des Denkens nicht auf Personen oder Sprechakte eingegrenzt werden und ebenso wenig auf die Schallwellen gesprochener Sätze, das Feuern von Neuronen oder die sozialen Effekte einer Sprache.
für Descartes existierte ein Bewusstsein im Gegensatz zum Körper nicht in einem Raum, sondern in der Zeit die Zeit ist für René Descartes ein Modus des Bewusstseins. (Princ. philos. III, 3). wenn bis heute unterschwellig an seiner problematischen Trennung zwischen denkender Substanz und rein körperlichem Dasein festgehalten wird, dann um geistige Prozesse nicht reduktionistisch zu erklären, also nur als biochemische Reaktionen oder soziale Verhaltens- und Sprachspiele. beim Denken handelt es sich immerhin um mentale Prozesse, die sich als Epi-Phänomene emergent übersteigen und zugleich Subjekt sowie Objekt sind obwohl für das Denken gleichfalls physikalische Gesetze gelten, kann es auf jene nicht zurückgeführt werden.. eine solche Verschränkung, welche die eigene körperliche Präsenz auch als Transzendenz umfasst, generiert eine heterotopische Virtualität in einem unbestimmbaren Möglichkeitsraum mentale Akte lassen sich auf jene Weise als aufgeschobene oder ausbleibende Reaktionen erklären, als ein Aufgeschobenes zwischen Gewissheit und Ungewissheit., der für selbstbewusste Reflexionsprozesse fortwährend eine Welt beansprucht, die die Wirklichkeit übersteigt und bei einem stetig wachsenden Wissensumfang vielleicht irgendwann nicht mehr in sie hineinpasst.


gesamtheit der vernunft

die theoretische Physik hat ihre Hoffnung, mit einer Theory of Everything die Wirklichkeit als Ganzes zu erfassen, mittlerweile aufgegeben. oder zumindest aufgeschoben, da die Vernunft weiterhin dazu neigt, den Geltungsbereich von Erkenntnissen in einer systematischen Gesamtheit als Anspruch aufrechtzuerhalten.
obwohl hinter der verstehbaren Wirklichkeit immer auch ein fortwährendes Unverstehen anzunehmen ist, wird an der Vorstellung einer omnipotent universellen Erkenntnis festgehalten. sie völlig abzulehnen, wäre ein Verrat an einem transzendentalen Denken, das als Teil der Wirklichkeit ebenfalls nicht völlig zu durchdringen ist und somit erwarten lässt, das mentale Prozesse grundsätzlich das Potential für weitere und fortwährend neue Erkenntnisse haben, die vielleicht einmal in eine absolute Vernunft münden.
mit dem Paradigma der Bewusstseinsphilosophie ist die Vorstellung der Welt an ihre Erkennbarkeit gebunden und ihre Erkennbarkeit wiederum von einer vorstellbaren Welt bedingt dabei sind Versuche, Antinomien zu begrenzen, indem sie systematisiert, profanisiert oder als Scheinprobleme hingestellt werden, letztendlich immer zum Scheitern verurteilt.. geht man zudem auch davon aus, dass sich das Vorstellungsvermögen immer über Grenzen des Wissens hinwegsetzt, lässt sich das Universum weder mit noch ohne einen omnipotenten Anspruch, also der Idee von einem Laplacesche Dämon vollständig beschreiben bei Kants Unterscheidung zwischen einer Welt für uns und einer Welt an sich wird nicht der Gegensatz von unterschiedlichen Wirklichkeitsebenen herausgestellt, sondern vielmehr die mittelbare Weise einer kognitiven Aneignung..


veritatives irren

mit seinem persistent begrenzten Wissenshorizont ist der Mensch auf ein Mutmassen angewiesen. er muss es wagen zu irren und akzeptieren, dass Erkenntnissprozesse nicht immer falsifizierbar sind. da ein Irregehen auch präzis auf die Fähigkeit zur Unterscheidung zwischen falsch und richtig verweist, kann der Irrtum nicht das Gegenteil der Wahrheit sein als ein vorliegender Tatbestand kann das Irren unabhängig von einer vertretenen Überzeugung auch einen erheblichen heuristischen Wert darstellen. deshalb sind Fehldeutungen und Missverständnisse nicht selten in den Wissenschaften Türöffner für neue Denkansätze..
für die Protagonisten des kritischen Rationalismus wurde, um einen permanenten Fortschritt für den Wissensstand zu gewähren, das Irren sogar mit dem Trial-and-Error-Prinzip zu einer Methode. da jener Ansatz meinte, die Asymmetrie von Verifikation und Falsifikation vermitteln zu können, behauptete er unterschwellig, eine unfehlbare Erkenntnisinstanz zu sein. doch konsequenter Weise muss ebenso ein Prinzip der Falsifizierbarkeit davon ausgehen, dass es sich bei ihm um einen irrtümlichen Ansatz handeln kann.


jenseitige perspektive

obwohl die Realität das übersteigt, was sich bewusst erfassen lässt, bleibt die Vorstellung von ihr als Ganzes eine imaginierbare Obsession. für Leibniz war sie bei einem begrenzten Horizont an die Vielheit unterschiedlicher Perspektiven gebunden und in seiner Theodizee eine Eigenschaft von einzelnen Monaden, welche mit einem jeweils anderen Blickwinkel ganz viele Universa generieren obwohl Monaden bei Leibniz in ihrer Perzeptionen so verschieden sind, stellt jede in ihrer Weise das Universum vor. jede Monade ist ein jeweils eigenes Abbild der Welt..
Kant hat den perspektivisch universellen Blick wieder an den endlichen Horizent des Menschen gebunden, um allgemeine und notwendige Bedingungen der Erkenntnis zu definieren. indem er nicht die Frage favorisierte, was etwas ist, sondern was die Bedingungen für mögliches Wissen über etwas sein können, wurde die Erkennbarkeit von Wirklichkeit an ein Bezugssystem gekoppelt, welches sich das menschliches Denken selbst schafft spätestens seit der Renaissance bezeichnet man in Analogie zur Erdkugel und zum Himmelsglobus die Gesamtheit der reinen Erkenntnisse als globus intellectualis. Kant versuchte dafür ein Modell zu entwerfen, mit dem die Grenzen menschlicher Erkenntnis zu bestimmen sind..
eine standpunktunabhängige Betrachtung scheint damit undenkbar. auch wenn der Mensch als Beobachter zweiter Ordnung seinen begrenzten Horizont einordnen und relativieren kann eine Beobachtung zweiter Ordnung ist immer eine Beobachtung die Beobachtbares beziehungsreich erfasst., wird er niemals in der Lage sein, von einem Jenseits des Jenseitigen alle möglichen Perspektiven der Realität und ebensowenig eine Vielfalt vereinende Allgesamtheit zu erfassen bei einem solchen Irgendwo kann es sich nur um einen fiktiven Standpunkt handeln..


vakante superposition

warum darf nur Schrödingers Katze eine leibhaftige Superposition in der Quantenwelt einnehmen? obwohl sie sich im Gegensatz zum Menschen in den eigenen Schwanz beissen kann, wird es ihr immer an der Fähigkeit mangeln, ihr Dasein in ein kosmologisches Weltbild zu transzendieren. bei Schrödinger kann in einem Gedankenexperiment eine Katze zur gleichen Zeit tot und lebendig sein und nimmt dabei wie ein Elektron eine Superposition ein.. jene Rolle kann bislang einzig der Mensch mit seinen transzendenten Anschauungen einnehmen. nur er schafft es als universell sich situierender Beobachter, eine Welt quantenmechanischer Wahrscheinlichkeiten zusammenzuhalten, indem er immer wieder auf sie schaut.


immaterielle fiktionen

obwohl ein alles umschliessendes Universum das übersteigt, was sich bestimmen lässt, ist der Mensch in der Lage, dafür eine Vorstellung zu entwickeln. er kann seine Wahrnehmung transzendieren und ist für Zusammenhänge in atomaren Mikro- oder exorbitanten Makrobereichen nicht auf das Erfassbare einer greifbaren Wirklichkeit beschränkt das Eigentliche einer Wirklichkeit kann kaum erfasst werden, nur die Relationen zwischen den Dingen in Systemen, da es zu einer essentiellen Washeit (quidditas) keinen erkenntnismässigen Zugang gibt.. um Eigenschaften sowie Dynamiken systematisch zu erkennen, reicht es aus, das Messbare als geordneten Zustand oder komplex determinierten Prozess strukturell zu taxieren.
doch was stellen überhaupt Strukturen dar? sie beschreiben einerseits als Orientierungsrahmen der Ratio zu untersuchende Phänomene und werden andererseits als Relationen der Wirklichkeit vorausgesetzt. somit sind sie ein Raster der menschlichen Wahrnehmung und zugleich unterstellte Prinzipien des Erkennbaren bei natürlichen Prozessen. da die Realität aber für den Menschen überdeterminiert vorliegt, kann es sich nicht um identische und nicht einmal um analog korrespondierende Verhältnisse handeln.
eine von Aristoteles ausgehende und im neuzeitlichen Rationalismus weiterentwickelte Ontologie wollte eine Logik des Seienden sein und übertrug, um eine umfassende Erkennbarkeit zu behaupten, logische Strukturen auf die Sphäre allen Seins. eine solche Gleichsetzung gelingt freilich nur mit Weltbildern, welche häufig beliebig erfunden werden, um irgendwann wie der alte Zeus-Glaube wieder verworfen zu werden. solange nicht zu klären ist, ob logische Strukturen ebenso der Natur immanent sind, gehörten sie für Nicolai Hartmann daher in eine ideale Sphäre Nicolai Hartmann in Grundzüge einer Metaphysik der Erkenntnis (1921).
ein spekulativ neuer Realismus geht mittlerweile davon aus, dass die Welt neben konkret vorliegenden Entitäten ebenso aus immateriellen Fiktionen des Denkens bestehen muss da es Namen ohne Referenz gibt, hat Meinong bereits 1904 vorgeschlagen, dass unser Universum nicht nur von real existierenden Objekten bevölkert wird, sondern abstrakte und imaginäre Entitäten mit einschliesst.. für deren Protagonisten und besonders für Graham Harman haben immaterielle Fiktionen des Denkens eine gleiche Existenzberechtigung wie empirische Tatsachen. ein Gedanke über ein abstraktes Bild ist somit kein Epiphänomen, sondern genauso real wie der neuronale Zustand eines Gehirns im Moment der Betrachtung. für eine solche ontologische Grosszügigkeit werden die Bereiche des Seins interferent gesehen, auf dass sich der Dualismus von Geist und Materie mit einem substanziellen Pluralismus überwinden lässt. dies hat immerhin den Vorteil, dass die Realität auch ohne einen bestimmbaren Bezug zwischen transzendentaler Vernunft und Emperie als eine beständig wahr gegebene vorliegt die Vernunft ist für jenen Realismus nur noch Vermögen und auch durch ein notwendiges Nichts an Erfahrung ausgezeichnet. sie kann, wenn sie das nicht Erdenkliche der Welt fabuliert, phantasiert oder fingiert, sich rein spekulativ entfalten..


hier und jetzt

die scheinbar konkretesten Wörter einer Sprache, hier (hic) und jetzt (nunc), sind bei Hegel zugleich die allgemeinsten. weil überall und immer verwendbar, verweisen sie im Weltganzen als variable Indices nicht anhaltend auf dasselbe. bei manchen Elementarteilchen ist sogar nur für ein paar Millionstel Sekunden eine topografische Zuordnung möglich im Bereich des elementar Punktförmigen ist die Welt genau genommen weder real noch lokal, sondern unbestimmt eine Wellenfunktion..
kurzlebige Entitäten erfordern eine äusserst präzise Wahrnehmung, und mitunter werden sie erst durch mathematische Berechnungen erfasst, wie bei den ephemeren Higgs-Teilchen, welche mit beinaher Lichtgeschwindigkeit fliegend niemals die kurze Strecke bis zu einem Detektor überdauern. einzig Zerfallsprodukte lassen sich nachweisen, da jene Objekte sich jedem direkten Nachweis in der Gesamtheit einer wahrnehmbaren Wirklichkeit entziehen in der Quantenwelt kann zudem die geringste Störung von aussen zu einer Dekohärenz führen, so dass der Zustand eines Systems sich irreversibel verändert..


hybris des erkennens

das wissenschaftliche Denken strebt nach Allgemeingültigkeit und findet sie vorwiegend bei beständig verlaufenden Prozessen. nur je detaillierter und präziser Zusammenhänge im Mikro- und Makrobereich exploriert werden, desto mehr offenbaren sie sich als schwer zu kalkulierende Instabilitäten. selbst bei einfachen Systemen mit drei Körpern, sorgen Gravitationskräfte für so komplizierte Bahnkurven, dass geringste Änderungen zu unberechenbaren Veränderungen führen während das Zweikörperproblem durch die Keplerschen Gesetze analytisch lösbar ist, sind Integrale im Fall von mehr als zwei Himmelskörpern nicht mehr mit elementaren Funktionen berechenbar..
wissenschaftliche Prognosen können Prozesse meist nur kalkulieren, indem sie Phänomene auf überschaubare Faktoren oder Randerscheinungen reduzieren. bei komplex dynamischen Abläufen, die wie in der Thermodynamik oder Biologie stark abstrahierende Betrachtungen erfordern, fällt es hingegen schwer, Relationen detailliert zu erfassen. nichtsdestotrotz werden in den Naturwissenschaften universell wirkende Strukturen für alle Phänomene der Wirklichkeit unterstellt. mit mathematischen Modellen und digitalen Simulationen erhofft man sich, Zusammenhänge im immer grösserem Umfang zu analysieren, und mitunter gelingt dies erst, wenn Effekte einer Selbstorganisation unterstellt werden der Begriff negative Entropie wurde von Erwin Schrödinger geprägt und beschreibt Prozesse, die Entropie exportieren, um ihre eigene Entropie niedrig zu halten.. verbindliche Regelmässigkeiten müssen sich dann nicht mehr aus den Eigenschaften einzelner Entitäten, den Konstituenten der Materie ableiten, sie sind mit der Vorstellung von einer Gesamtheit als systemische Eigendynamik oder sogar als negative Entropie beschreibbar bemerkenswerterweise scheint es eine Universalität der Strukturbildung zu geben, mithin Zustandsänderungen bei physikalischen, chemischen oder auch biologischen Systeme nach den gleichen Regeln ablaufen und in mathematische Formeln erfasst werden können..
das wissenschaftliche Denken ist darauf angewiesen, Ordnungen zu beanspruchen, die als Strukturgefüge die Menge der ermittelbaren Fakten per se übersteigen bei Kant war die Allgemeinheit ein ausschlaggebendes Kennzeichen für eine objektive Gültigkeit von Aussagen und Begriffen.. da der Verstand dazu neigt, seinen Standpunkt zu wechseln und dann Wahrgenommenes zu relativieren beginnt, bleibt er sogar bei der alltäglichen Orientierung auf einen verlässlichen Rahmen angewiesen. deshalb ist wohl nur ein imaginärer Metabezug in der Lage, den Menschen vor einem infiniten Regress des Aufeinanderbeziehens von Ansichten zu bewahren.


mass des denkens

die Realität ist zu mannigfaltig für ein subjektives Erkennen, aber als ontologische Gegebenheit immerhin etwas Relativierbares. der Mensch kann sie mit seinen Verhältnissen erfassen und wird so, wie einst Protagoras feststellte, zum Mass aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind der von Platon überlieferte Homo-mensura-Satz des Protagoras wird je nach Übersetzung der Konjunktionen subjektivistisch, sensualistisch oder relativistisch interpretiert. dabei unterschlägt man gern die grundlegende Bedeutung, welche sich mit dem Wort Mass ergibt.. dabei ist das menschliche Erkennen ein Bestimmen und kein Wissen von den Dingen selbst, insofern im Universum quantifizierbare Grössen nicht an sich vorliegen, lediglich relative Verhaltensweisen von Teilchen und Feldern, die sich aus ihnen zugrunde liegenden Beziehungsstrukturen ergeben.
wer das Wirkliche im Rahmen eines Kosmos, Multi- oder Megaversum mit seinen Bezugsgrössen massnimmt, erhält niemals ein unmittelbares Abbild, sondern nur seinen Messverfahren entsprechende Relationen von Phänomenen. die Realität üblicherweise bezieht sich das Wort Realität auf den Bereich, der unabhängig vom Bewusstseinszustand existiert. wird in der Form erkannt, in der sie gemäss einer normierbaren Perspektive zugänglich ist, nämlich bestimmt durch Zahlen und syntaktische Strukturen des Ausdrückbaren. auf diese Weise lässt sich ebenso das nicht Erfassbare mit der Annahme einer allumgreifenden Gesamtheit variabel explorieren die Idee eines universellen Zusammenhanges kann wohl nur eine Präsumtion sein, die sich im Nachhinein zu rechtfertigen hat., welche aber latent als einender Grund vorausgesetzt werden muss, damit Bezüge zu und zwischen den seienden Dingen überhaupt möglich sind.


lücke im rationalen

ob die Realität in ihrer Komplexität als eine erkennbare vorliegt oder nicht, ist eine schwer zu beantwortende Frage. aber noch schwieriger ist es zu klären, warum es eine solche Frage überhaupt geben kann das Befragen der Frage nach einer Erkennbarkeit schafft eine Differenz, die verdeutlicht, dass das zu Erfragende aus der menschlichen Perspektive bereits als eine Annahme vorliegt.. für ein universelles Verstehen räumlicher und zeitlicher Mannigfaltigkeiten ist das menschliche Denken überfordert. es kann sich weder auf einen Anfang noch ein Ende, auf kein erstes und kein letztes Wissen bei Erkenntnisprozessen beziehen und es bleibt stets lückenhaft solche Lücken kann auch kein Laplacesche Dämon füllen..
dies müsste frustrierend sein, ist es aber nicht, solange die Kombinationskraft des Verstandes assoziativ sich potenzieren kann. assoziativ ist es möglich, den vorliegenden Wissensstand immer wieder neu zu einer zusammenhängenden Gesamtheit, einer ontologisch behaupteten Universalie zu verknüpfen. dafür braucht es lediglich das Narrativ, dass überhaupt kohärente Zusammenhänge in der Wirklichkeit vorliegen. um die Realität als Totalität in eine Vorstellung zu bringen, muss der Mensch sich nur einen Standpunkt imaginieren, mit dem er sich vorstellen kann, eine Welt ausserhalb des eigenen Fliegenglases zu betrachten der Fliege den Ausweg aus dem Fliegenglas zu zeigen, war für Wittgenstein immerhin das Ziel der Philosophie..


sinn des sinnlosen

sinnlose Aussagen, wie die semantische Antinomien "ich lüge" oder "ich existiere nicht", sind weder falsch noch wahr. sie stellen einen Nebeneffekt generischer Potentiale von Grammatiken dar und sind in jeder Sprache artikulierbar. Vertreter des Logischen Empirismus haben sich an Propositionen, die keine Verifizierbarkeit zulassen, lange Zeit die Zähne ausgebissen und sie mitunter als unwissenschaftliche deklariert so rät A.J. Ayer in "Wahrheit, Sprache und Logik": falls sich nicht prinzipiell angeben lässt, wie man über Wahrheit bzw. Falschheit entscheiden kann, sollen Aussagen als wissenschaftlich sinnlos verworfen werden.. aber sinnlose Sätze stellen auch ein Vermögen des menschlichen Denkens dar, da immer davon auszugehen ist, dass sie das Potenzial für neuartige Reflexionszusammenhänge haben.
um nicht evident erscheinenden Tatsachen auf den Grund zu gehen, braucht es für Mutmassungen Sprachpotentiale, mit denen sich auch Aussagen formulieren lassen, welche die Dualität von wahr und falsch unterlaufen. erst so lässt sich denkbar Unmögliches anvisieren, das keinen Wahrheitskriterien unterliegt. universell wissenschaftliche Orientierungen können Sätze ohne Wahrheitsgehalt nicht völlig ablehnen. die Wirklichkeit als unbedingbare Einheit übersteigt stets das Begreifbare, und sie muss es auch, damit sie letztendlich ein Rahmen für Erkenntnisprozesse bleibt.


leidenschaftliche anmmassung

wenn es alles gibt, was es geben kann, warum dann nicht auch als erkenn- und begreifbare Tatsachen? die Frage scheint vermessen zu sein, wenn man davon ausgeht, dass der Horizont des Verstehenwollens immer mit einem aktuellen Lebensbezug begrenzt bleibt. die Vorstellung von einer allumfassend erkennbaren Realität ist wohl eine menschliche Hybris, mit der versucht wird, fortwährend Möglichkeiten des Unendlichen in ein Verhältnis oder sogar in eine Einheit zum Begreifbaren des Erfassbaren zu setzen dabei werden Gewissheiten der Ungewissheit in ein ambivalentes Verhältnis gebracht, so wie die Vorstellung von einer Begrenzung in Raum und Zeit auch deren Grenzenlosigkeit voraussetzt..
Kierkegaard machte die Leidenschaft der menschlichen Ungeduld dafür verantwortlich, davon auszugehen, dass alles verstehbar sein muss für Kierkegaard war es das höchste Paradox des Denkens, etwas entdecken zu wollen, das es selbst nicht denken kann. (Philosophische Brocken). da es freilich keine henologische Perspektive und keine empirische Basis für ein solches Ansinnen gibt und wohl niemals geben kann, bleibt das Wissen um sein Nichtwissen das Fatum des menschlichen Verstehens.


© frank richter, 2016-19