alles als theorie


die hyperbolik universeller ansprüche


"...im Grunde geht es immer nur um die Herstellung von Metaphern..."

Heiner Müller

totalität als anspruch

was sich erkennen lässt, muss immer irgendwo hineinpassen und sich zu einem Ganzen fügen. dafür braucht die Einbildungskraft fortwährend einen Rahmen. doch wie gross muss jener bei einem stetig wachsenden Wissensstand sein, damit das, was der Fall ist und sein könnte, eine entsprechende Mächtigkeit bekommt? es kann sich hierbei nur um eine epistemische Vermessenheit handeln, die für Theorien und Denkmodelle das abstrakte, d.h. niemals zu konkretisierenden Prinzip einer ontologischen Totale postuliert eine solche Prätention sucht über das Bekannte hinaus nach Sachverhalten und akzeptiert keine Begrenzung, so dass die Leitfrage der Ontologie: "Was gibt es?" immer noch mit "Alles" beantwortet werden kann (Willard Van Orman Quine, "On what there is", 1948)..
Thales von Milet war der Überlieferung nach der erste griechische Philosoph, der das Ensemble der göttlichen Mythen zu einer substanziellen Alleinheit destillierte und somit der begreifbaren und erkannbaren Realität einen unbedingten Urgrund gab. sein Ansatz war sehr erfolgreich und verpflichtet, obwohl er nur auf Wasser gebaut war, bis heute das Denken auf das Phantasma für Wittgenstein handelte es sich bei jener Totale um die Begrenzung eines Fliegenglases. eines absoluten Verstehenwollens denn das Ganze bleibt vielleicht ein überformter Anspruch für ein Denken, das nur fragmentarisch operieren kann..


kosmische evidenz

bei Kant ist das moralische Gesetz im menschlichen Gemüt nicht ohne den bestirnten Himmel zu haben. die Unermesslichkeit des Universums und das subjektive Empfinden werden in eine antinomische Beziehung gebracht, um in der "Kritik der praktischen Vernunft" einen fulminanten Schlussakkord zu setzen das Universum, dessen Relationen man zu Kants Zeit vielversprechend zu erforschen begann, wurde in der "Kritik der praktischen Vernunft" als Inbild des ästhetisch Erhabenen zu einem Pendant für das verallgemeinerbar Sittliche. .
der kosmische Bezug vermag eine erhebende Wirkung ausüben, insofern die Übergrösse der Welt die menschliche Einzigartigkeit darin als etwas Besonderes herausstellt. er kann aber ebenso kränken, wo universelle Weiten voller Kontingenzen die Empfindung aufkommen lassen, nur ein unbedeutendes Staubkorn in einem Weltengetriebe zu sein. seitdem eine verbindliche Einheit von Raum, Zeit und Materie mit der aktuellen Kosmologie dahin ist, stellt sich die Wirklichkeit komplexer auch als vage Unordnung dar. statt erkennbarer Determinismen liegen zu modellierende Wahrscheinlichkeiten vor, welche erst Ordnungen herausbilden, wenn sie jemand erfasst und in plausible Vorstellungen wie die der Urknalltheorie oder die eines Multiversums bringt. gelingt es nicht, wird der kosmische Blick für das nach Erkenntnis strebende Subjekt zu einer Erfahrung eigener Haltlosigkeit. das menschliche Vorstellungsvermögens erfährt seine Begrenzung innerhalb kosmischer Dimensionen als eine infinite Freiheit, mit der alles möglich sein kann und sub specie aeternitatis beliebig erscheint der Kosmos liegt dann als eine Option vor, welche die eigenen Möglichkeiten zur Disposition stellt, ohne selbst zur Disposition zu stehen. .


zufall als medium

seit der Antike ist das Bestreben ungebrochen, mit Verallgemeinerungen das erkennbar Wirkliche als strukturelle Ganzheit zu deuten. dabei wird bis heute latent vorausgesetzt, dass Unordnungen konträr zu Ordnungen stehen und gleichzeitig als überkomplexer Zustand deren immanenter Bestandteil sein können. ein solcher Widerspruch ist nur zu akzeptieren, wenn der absolute Zufall als eine ontologische Kategorie mitgedacht wird Ereignisse, die ohne Grund und damit ausserhalb von Kausalität zustande kommen, wären ein absoluter Zufall. . zwischen Ordnung und Unordnung muss er zumindest als Platzhalter, d.h. als unbestimmbare Struktur fungieren.
das Chaotische, weil vielleicht als Determination noch Verkannte oder per se Fluktuative, kann genaugenommen erst in der Dreierbeziehung Ordnung-Zufall-Chaos in akzeptable Zusammenhänge gebracht werden unter den Naturwissenschaftlern ging Heisenberg erstmals davon aus, dass es im subatomaren Bereich keine Determination und damit absolute Zufälle geben müsse.. um fortlaufend entscheiden zu können, was strukturiert in welcher Form vorliegt und was nicht, braucht das naturwissenschaftliche Denken ein Vermittelndes, das sich jeder Zuordnung entzieht. derartiges kann lediglich ein unbedingter Zufall leisten, der weder imaginier- noch symbolisierbar ist und damit als nicht definierbares Medium eine ausseruniverselle Grundlage der Unterscheidung von Ordnung und Chaos garantiert.


erfinden statt finden

die Realität gibt nicht vor, wie man über sie sprechen muss. das meinte jedenfalls Nietzsche, als er in "Jenseits von Gut und Böse" feststellte, dass Philosophen nichts finden, sondern immer nur erfinden "Jenseits von Gut und Böse", Kapitel 3, Erstes Hauptstück: Von den Vorurtheilen der Philosophen . für ihn konnte jedes Wissen nur noch ein Interpretieren sein, so dass seine skeptische Erkenntnistheorie konsequenterweise das Argumentieren aufgab und stattdessen die Naturgeschichte einer allzu menschlichen Sinnsuche fabulierte.


verum et factum

um Naturwissenschaft betreiben zu können, braucht es die Vorstellung von einer allgemein verbindlichen Wirkkraft wie der Kausalität, welche als agens das Ganze stetig neu bewirkt und zusammenhält. auch wenn solche Beziehungen nicht konkret ermittelbar sind, wird daran festgehalten. wer sich darüber hinwegsetzt und eine verursachende Verknüpfung verwirft, weil sie zu vielen Komplikationen führt, gerät wie einst Bertrand Russel in eine Erklärungsnot, solange er nicht äquivalente Alternativen für kausale Relationen vorzuweisen hat Bertrand Russell schlug 1912 in "The Problems of Philosophy" vor, das Wort Ursache aus dem Wortschatz der Philosophie zu streichen. .
obwohl mathematische Modellierungen für natürliche Phänomene im Mikro- und Makrobereich mittlerweile ziemlich präzise Vorhersagen liefern, liegt bis heute kein akzeptables Konzept vor, das Beziehungen zwischen Ursachen und Wirkungen universell erfasst. alle Versuche, jenes Defizit zu füllen oder zu umgehen, beanspruchen zu unterschiedliche Theorien und lassen sich interdisziplinär kaum händeln lange wurde ein objektiver Kausalitätsbegriff mit einem naiven Naturalismus verbunden, dem diverse zirkuläre Ansätze des Konstruktivismus und der Systemtheorie folgten, aber ebenfalls nicht zu befriedigenden Lösungen führten. .
in der Wirklichkeit liegen zu mannigfaltig verschachtelte Netze von Verknüpfungen vor, so dass keine lückenlosen Ursachenketten zu finden sind. selbst vielversprechend probabilistische Interpretationen, die Zusammenhänge als Wahrscheinlichkeiten verstehen, können bei komplexen Phänomen nur begrenzt für Erklärungen und Prognosen genutzt werden somit scheint es sich bei kausalen Beziehungen eher um Vereinfachungen zu handelt, mit denen Verhältnisse modellhaft universalisiert werden. . sie sind allerdings als Referenzrahmen der einzige Ausweg für das Verstehen vielschichtiger Wechselwirkungen für David Hume war die Gewohnheit ein solcher Referenzrahmen, der dazu verleitet, für die Zukunft Ähnlichkeitsbeziehungen aus der Vergangenheit abzuleiten. .
man könnte davon ausgehen, dass sich der Begriff der Verursachung aus der menschlichen Erfahrung eines zweckmässigen Handelns abstrahiert hat. nicht die Beobachtung von Veränderungen in der Wirklichkeit, sondern das Streben, sie für eigene Ansprüche zu beherrschen, scheint für den Gedanken einer ursächlichen Verbindung grundlegend zu sein. dafür reicht es immerhin, dass sich Kausalitäten experimentell in einem festgelegten Setting von Effekten isolieren und als modellierbares Design optimieren lassen.
als einer der ersten hat sich Giambattista Vico gegen die Vorstellung gewandt, dass eine methodische Wissenschaft die Natur erfassen kann. von der vergleichenden Rechtsbetrachtung eines Hugo Grotius ausgehend, vertrat er die Überzeugung, dass die Geschichte der primäre Gegenstand des Wissens sei. denn der Mensch könne nur die Phänomene bewusst begreifen, die er selbst hervorbringt (verum et factum convertuntur), während die Natur nur der erkennt, der sie erschaffen hat Vico hat in seiner "Neuen Wissenschaft" bereits 1725 den Weg für einen konstruktivistischen Methodenbegriff der Moderne geebnet, der zu einer Selbstermächtigung führte und es erlaubt Erkenntnisse aus einer mit Technologie konstruierten Wirklichkeit zu gewinnen.. mit einem solchen Ansatz, der eine wesentliche Verwandtschaft zwischen Erkenntnisobjekt und -subjekt radikal einfordert, würde einzig ein Homo ludens die Wirklichkeit verstehen, welche er realiter nachzubauen oder wenigstens zu simulieren vermag.


hyperbolischer zweifel

die Vorstellung von einem allumfassenden Ganzen ist der Rahmen des menschlichen Denkens. er garantiert eine universelle Orientierung, darf aber die Wirklichkeit nicht begrenzen, kein geschlossener Raum sein. es ist von einer Totale mit einer unendlichen Grenze auszugehen, die sich nicht genau bestimmen lässt. Theorien mit einem hohen Verallgemeinerungsgrad können deshalb nur mit einer gewissen Wahrscheinlichkeit als korrekt gelten und niemals als abschliessende Wahrheiten vorliegen für Heidegger war der Mensch dennoch zu einem "In-der-Welt-Sein" protegiert, das ihn per se in einem allumfassenden Ganzen verortet.. mit religiösen und rational begründeten Weltanschauungen ist es allerdings möglich, für das Denken und Meinen einen absoluten Rahmen zu imaginieren, der als ein selbstbezügliches Entsprechungsverhältnis vorliegt. der Mensch ist mit jenem Bezug in der Lage, seine Wirklichkeit zu transzendieren und eine hypothetische Nullperspektive als fundamentum inconcussum einzunehmen.
nur ist eine solche Position für wissenschaftliche Erkenntnisprozesse eigentlich eine unmögliche Perspektive, da sie voraussetzungslos einen archimedischen Punkt beansprucht. Descartes meinte einst jenen Standpunkt mit seinem hyperbolisch alles hinterfragenden Zweifel gefunden zu haben. doch wo ein radikaler Zweifel zum Prinzip erhoben wird, geht konsequenter Weise jede Gewissheit, selbst die des Zweifelns verloren bereits Augustinus stellte fest, dass selbst wenn jemand in allem irrte, er dennoch ein Irrender sei (Si fallor, sum. in De civitate dei, XI. 26)..
eine solche Basis führt nicht zu einem unbedingten Wissen, und bleibt, insofern es ausgeschlossen ist, an allem zu zweifeln und gleichzeitig in allem getäuscht zu werden, ein desperates Unterfangen Descartes konnte seinen Zweifel letztendlich nur behaupten und ihn als Methode metaphysisch aufwerten..


ausnahmen als regel

Theorien, welche sich erfolgreich in der Praxis bewähren, verdichten empirisches Wissen, indem sie erkennbare Tatsachen selektieren und dementsprechend verallgemeinern. dass auf diese Weise ihre Erklärungen vorhersehbar Wirklichkeitsausschnitte abbilden können, zeigen vor allem Anwendungen in der Technik. dennoch bewähren sich auch dann Verallgemeinerungen nicht vollständig. eine Theorie prüfen heisst daher nach Poppers Falsifizierbarkeits-Regel, Verfahren finden, mit denen sie widerlegt werden kann. da keine noch so grosse Anzahl von Überprüfungen zu zeigen vermag, dass eine Verallgemeinerung zwingend wahr ist, wird das Widerlegen einem Verifizieren vorgezogen. das trifft allerdings ebenso auf die Falsifikation als erkenntnistheoretisches Prinzip zu die Falsifikation kann nur als unhintergehbarer Erkenntnisprozess betrachtet werden, da ansonsten für diesen Ansatz eine Falsifizierbarkeit beansprucht wird, die selbst maximal falsifizierbar zu sein hat.. zudem ist davon auszugeehen, dass Ausnahmen häufig umso besser eine Regel bestätigen, indem sie jene erweitern oder in ihrem Umfang beschränken bei mancher Datenlage ist die Wahl zwischen verschiedenen Theorien nicht festlegbar, da nicht eindeutig determiniert..
um dem zu entgehen, hat der Physiker David Deutsch vorgeschlagen, dass eine Theorie nicht nur falsifizierbar sein soll, sie muss auch Erklärungen bieten, bei denen es nicht möglich ist, sie einfach abzuändern, falls ihr neue Erkenntnisse widersprechen der Physiker und Mathematiker David Deutsch forderte dies in seinem Vortrag "A new way to explain explanation" (Juli 2009).. damit soll verhindert werden, dass es fortwährend Kompromisse durch Modifikationen von Lehrmeinungen gibt, welche fällige Paradigmenwechsel blockieren.
wer derartig argumentiert, ignoriert freilich, dass tatsächlich erst neue Paradigmen zu veränderten Sichtweisen in der wissenschaftlichen Orientierung führen und nicht empirische Widersprüche. ob unmittelbar evident oder erweitert durch präzisere Messinstrumente, bleibt die sinnliche Gewissheit eine begrenzte Erfahrung, und es ist zu akzeptieren, dass für jede Theorie mindestens eine Alternativtheorie vorliegen kann, welche durch dieselben empirischen Daten gestützt wird.


relatives limit

wer universell denkt, stellt sein Wissen in komplexe Bezüge und relativiert es infolgedessen fortwährend. schlimmstenfalls erscheint ihm irgendwann alles als relativ. doch die Feststellung, dass alles relativ sei, ist unakzeptabel, weil absolut formuliert und sich selbst widersprechend. die Aussage, dass alles, was als wahr gilt, nur relativ wahr sein kann, muss hingegen akzeptiert werden. Relativität kann sich immer nur auf Verhältnisse beziehen und keinen universellen Standpunkt beanspruchen, da die Endlichkeit eines kognitiven Vermögens stets in Bezug zu einer darüber hinausreichenden Wirklichkeit steht.
der Relativismus als philosophische Denkrichtung hat es nie leicht gehabt, insofern er selten als Denkstil überzeugt und zudem sich mit der klassischen Logik schlecht verträgt. er ist entweder inkonsistent, indem er alles als relativ deklariert, ausser die eigene Position, oder trivial, da er lediglich artikuliert, dass Wahrheitsansprüche nie sicher sein können wer die Wahrheit von Aussagen und Prämissen als bedingt ansieht, muss auch bereit sein, sich selbst zu relativieren und dieserart bezähmen.


fragilität des wissens

die Eroberung der Zukunft durch wissenschaftliches Knowhow hat seit langem einen Punkt erreicht, an dem Effekte komplexer und damit unkalkulierbarer werden. wo Probleme der Ungewissheit und das wissenschaftliche Nichtwissen einen immer grösseren Raum einnehmen, ist der Anspruch auf ein sicheres Wissen selbst in überschaubar abgesteckten Bereichen wie der Zoologie oder Oenologie nicht mehr zu haben Durchbrüche wie die Entzifferung des menschlichen Genoms können einen besonderen Entdeckergeist wecken, aber ebenso desillusionierend wirken, wenn deutlich wird, dass es noch weiterer Quantensprünge bedarf, um beim Klonen tatsächliche Erfolge in der Humanmedizin zu erzielen. . je offener Perspektiven für Entdeckungen erscheinen, desto stärker differenzieren sich unüberschaubare Möglichkeiten aus und umso mehr Missverständnisse ergeben sich, da jede gewonnene Erkenntnis zu neuen Warum-Fragen oder einem relativierenden Aber führt in vielen Bereichen der Naturwissenschaften werden deshalb die Grenzen zwischen Wissen und Nichtwissen durchlässiger..
langfristig gesehen kommen Wissensdisziplinen mit ihren Entdeckungen wohl zu keiner Auflösung. sogar technologische Erfindungen, die sich erfolgreich etabliert haben, sind nicht unfehlbar und mit wachsenden Unwägbarkeiten wie bei Gen-Manipulationen oder der Optimierung von makroökonomischen Prozessen beanstandbarer denn je. die Beherrschbarkeit technischer Systeme verschlingt besonders im digitalen Bereich zunehmend Ressourcen, wenn Risiken sozialer Steuerungen mit stetig mehr Aufwand reguliert werden müssen. es ist ein ewiges Katz-und-Maus-Spiel, das für eine Mobilität von Entwicklungen sorgt, die immer weniger planbar wird.


offene gewissheit

irrtümliche Annahmen führen nicht zwangsläufig zu falschen Erkenntnissen. sie können sich ebenso, wie Gettier Gettier, Edmund L.: Is justified true belief knowledge? Analysis 23.6, Juni 1963. zeigte und vor ihm schon Russell und Meinong Russell’s Uhrenbeispiel in "Human Knowledge: Its Scope and Limits 1948 oder Alexis Meinongs Halluzinationsbeispiel bereits 1906 formuliert. bei einer falschen Faktenlage rein zufällig als wahr erweisen. die Geschichte der Wissenschaften bietet hierzu einige kuriose Belege. so ermittelte Kepler aufgrund einer abstrusen astrologischen Analogie, dass der Mars zwei Monde besitzen müsse, insofern die Erde nur einen und der Jupiter vier hat, und lag damit richtig. Hegel beharrte gegen das Wissen seiner Zeit auf neun Planeten in unserem Sonnensystem und hat bis heute recht behalten, da nach der Degradierung des Pluto zum Zwergplaneten manche Astronomen wieder nach einem, noch unentdeckten Kandidaten suchen.
wo ein objektives Wissen beansprucht wird, sind niemals ausreichende Informationen für einen Sachverhalt zu bekommen und immer weitere Theorien für ein konsistentes Weltbild erforderlich. man könnte daraus schliessen, dass Wissen als wahre, gerechtfertigte Überzeugung selten tatsächlich zu haben sei und keine Erkenntnis mit Gewissheit zu rechtfertigen wäre. doch ist streng genommen auch eine solche Erkenntnis nicht unfehlbar, da sie ebenso wenig als eine Gewissheit vorliegen kann der wissenschaftliche Anspruch von Wahrheit benötigt immer den Zweifel als Korrektiv, so dass gewonnene Erkenntnisse stets hinterfragbar bleiben..


verlangen nach vollständigkeit

vielleicht bedingt nur das menschliche Verlangen nach Vollständigkeit die Vorstellung von einer universellen Weltgesamtheit. es ist nicht zwangsläufig davon auszugehen, dass die Realität dementsprechend sich bedingt. ihr könnte genauso gut ein unfertiges, inkonsistentes Werden zugrunde liegen, das sich jedem Imaginationsvermögen entzieht. dies muss aber nicht heissen, dass es dafür kein reflektierbares Entsprechungsverhältnis gibt.
obwohl das menschliche Wissen immer ein begrenztes ist, endet die Vorstellung von einem Universum nicht an den Grenzen der verstehbaren Welt. wie beschränkt auch das Erkenntnisvermögen sein mag, seine Reichweite bleibt grundsätzlich offen und kann jedes Aussen durch Mutmassungen einbinden. dafür wird inzwischen sogar das Universale im Plural als Multiversum Parallelwelten werden in der Philosophie seit der Antike unter formalen Gesichtspunkten als logische Beispiele oder hypothetische Annahmen für physikalische Prozesse erörtert. bzw. viele-Welten-Konglomerat konzipiert.


hyperbolische wahrheiten

die Logik war für die Griechen im Gegensatz zu einer nur überredend-wollenden Rhetorik die Instanz für ein korrektes Argumentieren das ambivalente Verhältnis von Logik und Rhetorik ist bei wechselseitigen Geltungsansprüche von alters her ein konfliktgeladenes und hat langfristig zu einer Logisierung der Rhetorik und zu einer Rhetorisierung der Logik geführt.. mit jenem Anspruch etablierten sie nachhaltig ein Schlussfolgern, das verbindliches für alles und jeden gilt, und seit Kant, auch transzendental verwendet, zu einer allgemeinen Theorie des Denkens wurde. daran hat sich mit der Ablösung der Naturwissenschaften von philosophischen Grundsätzen wenig geändert, obwohl nach wie vor ungeklärt bleibt, ob ein logisches Operieren dem Menschen a priori gegeben ist oder nur ein Desiderat seines Sprachvermögens darstellt. für rationale Ansprüche hat das legitime Schliessen noch immer einen Konsens zu erbringen, der unabhängig von Personen und örtlichen Gegebenheiten Wissen verallgemeinert. somit ist die Logik einerseits eine interaktive Praxis für das Kommunizieren geblieben und andererseits eine sich weiterentwickelnde Strategie für Erkenntnisansprüche. die Reichweite verringert sich jedoch, wenn Sachverhalte komplexer analysiert werden und sich der Wissensstand bei einer sinkenden Halbwertszeit von Theorien fortwährend ausspezialisiert wo ein zusammenhängendes Regelsystem richtiger Aussagen angestrebt wird, engt es den Rahmen von Konklusionen ein und kann zu Paradoxien führen..
logische Theoreme beanspruchen mittlerweile immer mehr Erweiterungen, die wie bei der intuitionistischen oder mehrwertigen Logik überlieferte Prinzipien und Operationen ignorieren oder extendieren. damit erhöht sich die Zahl von Wahrheitsfunktionen und Ausnahmebestimmungen, so dass Regulierungen offener designt werden können. es lassen sich inzwischen mathematische Möglichkeitsräume konstruieren, die so komplex sind, dass sie nur Computerprogramme noch zu händeln vermögen. dies kann zu einer hohen Intransparenz führen, so dass mathematische Beweise, die eine Software erstellt, nicht anerkannt werden, weil sie schlichtweg nicht nachprüfbar sind.


rekursiv definieren

Begriffe sollten nicht zirkulär definiert werden, damit sie nicht bereits das voraussetzen, was sie zu bestimmen haben. bei der Rekursion lässt es sich indes nicht vermeiden. wer den Begriff allgemein erklären will, behandelt ihn unweigerlich rekursiv die Funktion Erklären muss sich selber aufrufen und dabei konkretisieren.. wird es als Demonstration verstanden, hat man eine auf sich selbst angewandte Regel rekursiv veranschaulicht.
doch besser wäre es, derartiges mit einem Beispiel wie der Schneeflocke zu versinnbildlichen. hier wird augenscheinlich deutlich, dass sich idem per idem das Prinzip einer Konstruktion selbst konstruiert. eine Software, die solches für den Computerbildschirm darstellt, muss allerdings eine Abbruchbedingung begrenzen. ansonsten hängt sie sich in einer Endlosschleife auf. dies gilt ebenso für Metatheorien wie dem kritischen Rationalismus, die als Erklärungen eine hohe Allgemeingültigkeit beanspruchen, aber nur bedingt auf sich selbst, also rekursiv angewendet werden dürfen bei Metatheorien hat die Klasse der Falsifikationsmöglichkeiten leer zu sein, insofern schon das Bestehen einer Falsifikationsmöglichkeit die Idee der Falsifikation zum Provisorium degradiert..


unverbindliche einbildung

intuitiv verfügt der Mensch meist über mehr Wissen, als mit Gewissheit anzugeben ist. er kann sein Wissen nicht immer ausreichend oder glaubhaft begründen und ist dann klüger, wenn er sich nicht erklären muss. so wie Augustinus nicht klarzustellen vermochte, was die Zeit ist, als er danach gefragt wurde, fällt es zuweilen schwer, Vorstellungen die primär auf Anschauungen beruhen, evident zu begründen für Augustinus war die Zeit deshalb eine subjektive Anschauung der Seele..
ebenso wenig lassen sich Bilder auf eine artikulierbare Verbindlichkeit festlegen. nicht einmal bei einer von einem Computerprogramm imitierten Mondrian-Komposition gelingt dies. auch hier werden ästhetische Erfahrungen initiiert, welche sich nicht definitiv bestimmen lassen. wäre es dabei die Anlage von Anschauungen, nichts Substantielles darzustellen, würde das Imaginäre dem Wort unterliegen. die Gefahr besteht freilich kaum, da der Gehalt des Vorstellbaren selten in verbalen Mitteilungen aufgeht. das offene Universum der Imagination trennt von der Logik jeder generierbaren Sprache stets ein Spalt, der nicht mit Deutungen verbindlich zu füllen ist in seiner Schrift "Über die Seele" grenzt Aristoteles die Einbildung (phantasia) von der Wahrnehmung (aisthesis) und dem Denken (noein) ab (De an. 427 b 9-12..


äpfel und birnen

man soll nicht Äpfel mit Birnen vergleichen. sie gehören in einem Obstladen verschiedenen Preiskategorien an und werden wie die Erkenntnisse von Philosophen und Naturwissenschaftlern in einer Alma Mater getrennt abgewogen.
doch wo zu ermittelnde Bezüge sich nicht an althergebrachte Redensarten halten und unbestimmt bleiben, ist ein Vergleichen unumgänglich. dann geht der Abgrenzung ein partielles Gleichsetzen voraus, das auszutarierende Relationen beansprucht und bei interdisziplinären Symposien zu der Erkenntnis führt, dass irgendwie alles miteinander vergleichbar ist. nur das von Philosophen veranschlagte absolut Vereinzelte, das völlig Alogische und in jeder Hinsicht Zufällige bei Hegel war es das reine Sein, das sich jeder Bestimmung entzieht. , welches es für Naturwissenschaftler in einem Raum-Zeit-Kontinuum gar nicht geben kann, würde sich dem von vornherein entziehen.


fokus der vagheit

ohne verlässliche Begriffe sind keine haltbaren Theorien zu haben. doch kann es solche Theorien überhaupt geben? für Popper reichte es aus, dass ein Begriff nur so exakt vorliegen muss, wie es eine Problemsituation erfordere "Begriffe müssen nur so exakt sein, wie es die Problemsituation erfordert", formulierte Karl R. Popper in einem Exkurs über den Essentialismus (siehe: "Ausgangspunkte: meine intellektuelle Entwicklung").. für ihn legte ein epistemischer Anspruch fest, inwiefern bei Definitionen Präzisierungen oder Erweiterungen nötig werden.
die wissenschaftliche Praxis zeigt inzwischen, dass frei vagabundierende Begriffe in komplexen Theorie unumgänglich sind. sie müssen nur für den festen Anwendungsbereich zurechtgeschliffen werden und besonders passgenau, wo sie für spezielle Aufgaben wie bei den Ingenieur- und manchen Naturwissenschaften zum Einsatz kommen.
bei Plato waren Begriffe als Ideen in ewigseienden Urbildern fixiert und wurde derart lange Zeit als reine Einheiten von Bestimmungen, Prinzipien oder Gegenstandsklassen benutzt. im Gegensatz dazu enthält bei Hegel die Bedeutung eines Begriffs zuweilen den gesamten Denkweg zu ihm hin und bleibt dabei vieldeutig. auf jene Weise lassen sich bis heute begriffliche Fixierungen wie Knoten in einem Netzwerk verknüpfen, um in einem noch nicht zu definierenden Möglichkeitsraum Fragen immer wieder neu zu stellen um zu neuen, weiterführenden Erkenntnissen zu kommen, denkt man mit der komplexen Vagheit einer Sprache und geht davon aus, dass jedes Raster, welches wie ein Netz über die erkennbare Realität geworfen wird, flexibel sich anzupassen vermag.. wo die Halbwertszeit von Theorien sinkt, bleiben wissenschaftliche Heuristiken darauf angewiesen, sich ebenjener analytischen Mittel zu bedienen, von denen sie eigentlich eine Entlastung suchen. ihre Wahrheiten sind dann fortwährend zukünftig zu etablierende.


gedankenspiele als beleg

kein Lehrbuch der elementaren Logik kann auf den sterblichen Sokrates verzichten und kein Autor beim Thema der Referenz auf den Abend- und Morgenstern ohne solche Bezüge wäre bei komplexen Reflexionen nur schwerlich eine Bedeutung zu vermitteln.. das Exemplarische ist ein Probierstein des Denkens und gemeinhin eine rhetorische Konkretisierung für die Urteilskraft. wo es schlagkräftig zu überzeugen gilt, kann ein bestechendes Beispiel sogar zum Kriterium der Wahrheit werden. es hat dann abstrakte Gedanken nicht nur zu illustrieren, sondern muss wie bei Gilbert Ryle definitiv Begrifflichkeiten untermauern Gilbert Ryle illustriert mit sprachlichen Fehlzuordnungen Kategorienfehler, ohne dafür eine formale Definition vorzulegen..
was in den Naturwissenschaften das empirische Ergebnis eines Experiments übernimmt, leistet oft in den Geisteswissenschaften ein plausibel statuiertes Exempel. es wird für eine These oder wie bei den Gettier-Fällen Gettier zeigte mit simplen Beispielen aus dem Alltagsleben, wie die gerechtfertigte wahre Meinung auch durch einen Schluss aus falschen Prämissen zustande kommen kann. wider die klassische Wissensdefinition eingesetzt. da sich bei hermeneutischen Argumentationen Beweise nicht wie in der Mathematik entwickeln lassen, werden signifikante Exempel statuiert, um Wahrheitsfindungen zu untermauern. ohne sie würden auch Begriffe ihren Kontext verlieren und Theorien gegenstandslos bleiben. trotzdem gelten Beispiele nach wie vor als unzuverlässige Argumente. mithin sie keine objektive Allgemeingültigkeit beanspruchen können, solange sich immer nur für etwas Bestimmtes eine Vorstellung aufbringen lässt und nicht für die Vorstellung des Universellen an sich oder die Abstraktion Alles, bleiben sie vage Behauptungen.


praxis des theoretisierens

die Unterscheidung von Praxis und Theorie verführt dazu, schnell einseitige Wechselwirkungen zu unterstellen. dabei wird eine praktische Überprüfbarkeit von Wissen oder die vorhergehende Reflexion für das Handeln favorisiert. die Puristen der einen wie der anderen Seite sind jedoch, was die Geschichte der Wissenschaften zeigt, ausgesprochen praxisfern mit ihren Festlegungen. denn Theorien wie die Newtonsche Mechanik oder die Wärmelehre wurden nicht aufgrund der zur Verfügung stehenden Daten entworfen und ebenso wenig sind Fakten in Laboren nur gesammelt worden, ohne dass dafür ein heuristischer Anlass vorlag.
jedem Laborieren und Herumtüfteln gehen seit jeher metaphysische Überlegungen voraus das Problem, dass es keine Tatsachen ohne Theorien gibt, hat immer wieder zu Krisen des Empirismus, des Induktionismus und Positivismus geführt. und es gibt kaum Lehrsätze, die ohne praktische Erfahrungen auskommen. nicht einmal die Mathematik erlaubt derartiges, weil sie ein händelbares Zahlenverständnis vor jeder Regelbegründung voraussetzt.
das widersprüchliche Privilegieren der Praxis gegenüber der Theorie oder umgekehrt ist vermeidbar, wenn man das menschlichen Theoretisieren per se als Aktivität versteht. d.h. als einen Akt, der sich mit mentalen Prozessen und kommunikativen Interaktionen in der Weise einer Technik oder Poesie die Poesie ist ein fundamentales Alphabet des menschlichen Denkens und kann sich immer wieder als zuverlässiges und letztgültiges Instrument zur Aufdeckung der Wahrheit erweisen. ereignet.


exklusives philosophieren

das philosophische Denken verliert zunehmend die Verbindung zum wissenschaftlichen Fortschritt. während es bei Aristoteles noch selbst Wissenschaft war und im Mittelalter die Königin der Wissenschaften, ist heute das reine Erkenntnisstreben ohne bestimmte Methodologie und konkrete Anwendungsbereiche entthront. seitdem Wissen primär an technologischen Erfolgen gemessen und zuvor durch Apparate in Laboren geprägt wird, hat die Philosophie als übergeordnetes Ressort abgedankt auch der allgemein erklärenden Erkenntnistheorie gelingt es nicht weiterhin, fachübergreifend die Voraussetzungen und das Zustandekommen von Erkenntnissen zu thematisieren.. und dies wohl ganz berechtigt, denn mittlerweile kann kaum noch ein metaphysisch orientierter Ansatz den Wissenschaftsprozess als Ganzes reflektieren.
wenn wissenschaftliche Ansprüche sich ausspezialisieren und in immer neueren Disziplinen Erkenntnisbereiche erfassen, werden Experten rar, die enzyklopädisch übergreifende Kompetenzen ausbilden und durchzusetzen vermögen. Gaston Bachelard, der eine solche Forcierung voraussah, warnte daher bereits im vergangenen Jahrhundert, dass irgendwann jedes wissenschaftliche Problem, jedes Experiment, ja sogar jede Gleichung einer eigenen Philosophie bedarf Gaston Bachelard in "Die Bildung des wissenschaftlichen Geistes", 1938.


zwang zum konsens

in wissenschaftlichen Diskursen werden Erkenntnisprozesse nachvollziehbar kommuniziert das Ziel wissenschaftlichen Arbeitens ist nach wie vor die systematische und nachvollziehbare Darstellung von Erkenntnissen. dafür werden immer noch einheitliche Regeln als obligatorisch akzeptiert.. im Normalfall tauschen Koryphäen einer Denkschule Informationen und Überzeugungen unmissverständlich aus. erst Unstimmigkeiten führen dazu, dass über das Verhältnis zwischen dem, was jemand sagen will, und dem, was ein anderer versteht, so lange dis- oder rekursiv verhandelt wird, bis ein Konsens sich kohärent einstellt.
kommt er nicht zustande, ist der Austausch meist von zu verschiedenen Interessenlagen bestimmt. darüber kann man sich ausgiebig auf Symposien und in internen Fachzirkeln verständigen. doch auch hierbei gilt, dass wo Wahrheitsansprüche erhoben oder widerlegt werden, sich nur nachvollziehbar kommunizieren lässt, was präzis vermittelt wird.


entropischer kontrast

wo Informationen auf einem Bildschirm von einem Rauschen unterdrückt, Gespräche durch ein Knacken gestört und Bilder zerpixelt werden, liegen Störungen vor. sie richten sich gegen eine festgelegte Funktionalität und können Gegebenes derart beeinflussen, dass es sich bis zur Unkenntlichkeit auflöst. solche Zerfallserscheinungen sind meist entropische Prozesse, die auch in digitalen Medien die beste Technologie nicht zu bändigen vermag Störung werden meist als Abweichung von technischen Parametern und kommunikativen Erwartungen wahrgenommen.. denn selbst bei mit Redundanzen arbeitenden Übertragungen kommt es zu interferierenden Abweichungen, welche sich nur aufwendig oder gar nicht mehr kompensieren lassen.
wird die Störung als Teil der Normalität angesehen, stellt sie einen Parameter dar, der hinzukommend eingreift und Erwartungen unterläuft. in einem chaotischen System, in dem alle möglichen Zustände Informationen wären, würde sie sich der Wahrnehmung hingegen völlig entziehen. Störungen benötigen für ihre aisthesis die semiosis einer erkennbaren Ordnung, d.h. immer etwas weniger als ein beliebiges Beziehen von Allem da immer ein Allzuviel an Informationen zwangsläufig zu einem Rauschen führt..


floatierendes sprechen

eine künstliche Intelligenz operiert nach rationalen Kriterien und kann sich daher bestens vernetzen. erst für die Kommunikation mit uns Menschen benötigen sie ein Interface, das abstrakte Sprachelemente in konkrete Mitteilungen übersetzt. darauf sind sogar Programmierer inzwischen angewiesen, da sie bei einer steigenden Komplexität von Operationen dem floatierenden Code einer Software im Detail nicht mehr zu folgen vermögen Maschinencode ist das Endergebnis der Kompilierung und Selbstgenerierung einer höheren Programmiersprache. eine aus Binärzeichen bestehender Code ist die einzige Sprache, die ein Computer, aber fast nie ein Mensch verstehen kann..
entwickeln sich Software-Systeme irgendwann völlig abgekoppelt von einer menschlichen Obhut, wird ihnen der Sinn für ihr Handeln fehlen. sie werden als agierende Entitäten in einer eigenen Umwelt zwar bei sich potenzierenden Verarbeitungs- und Speicherkapazitäten ein komplementäres Vermögen für doppelsinnige Sprachanalogien, das intuitive Problemlösen und vielleicht sogar eine moralische Empathie entwickeln, aber nicht in der Lage sein, eine Vorstellung ausserhalb ihres Paradigmas zu abstrahieren. ihre Möglichkeiten bleiben an Notwendigkeiten des rationalen Operierens gebunden und somit können sie nicht wie der Mensch im Denken fremdgehen, um sich aus einer Distanz wahrzunehmen der Mensch kann sich einer rationalen Komplexität nur begrenzt anpassen und ist bei komplexen Phänomen auch auf seine Intuition angewiesen..


ungewissheit der anschauung

ist ein Wissen ohne den Menschen denkbar? es müsste wohl ein Wissen sein, das auf neutralen, subjektunabhängigen Anschauungsformen beruht und auch für eine extraterrestrische Intelligenz valide wäre. als die NASA erstmals in Kupfer gestochene Informationen über die Erde mit einer Sonde in den Weltraum schickte eine Plakette in der Sonde Pioneer 10 zeigt in der oberen Ecke ein Wasserstoffmolekül, darunter die Postion der Erde im Weltall und daneben zwei nackte Menschen mit Grössenangaben., gingen Wissenschaftler noch davon aus, dass überall die gleichen Naturgesetze gelten und von jedem intelligenten Wesen mit denselben algebraischen Relationen erfasst werden. doch ob menschliche Erkenntnisse überhaupt für eine extraterrestrische Intelligenz nachvollziehbar sind, bleibt eine offene Frage.
das menschliche Wissen ist an soziale Sinnfragen gebunden und steht in einem konkreten Lebensvollzug. als Vermögen sich etwas repräsentativ anzueignen, charakterisiert es mehr einen kognitiven Phänotyp als die ihn umgebende Realität man könnte dennoch davon ausgehen, dass der Mensch, je mehr er erkennt, desto mehr auch sich selbst erkennen wird. wäre es nicht der Fall, würde die Erkenntnis je mehr sie steigt, desto mehr ein unmenschliches Wissen werden., und es ist kaum davon auszugehen, das ausserirdische Bewusstseinsformen auf dieselbe Weise eine Wirklichkeit erfassen. sie werden wahrnehmbare Determinationen auch in einem kognitiven Eigensystem modellieren, das aus ihrer Sicht zwar universell ist, aber nicht unseren Anschauungen entsprechen muss. vielleicht haben sie sogar völlig andere Vorstellungen von Raum und Zeit, so dass sie gar nicht in einem gleichen Universum existieren.


einsamkeit im denken

für Kant ist eine reflexive Selbstreferenz konstitutiv für das Denken, da erst ein alle Vorstellungen begleitendes Ich es ermögliche, mentale Akte zu bündeln. seine primär auf Erkenntnisgewinn ausgerichtet Subjekt-Auffassung ignoriert allerdings das Begreifen von inneren Erfahrungen und damit den mentalen Einfluss von Gefühlszuständen, von Wünschen und Absichten.
wahrscheinlich hat Kant jenen Bereich absichtlich ausgeblendet, weil ihm klar war, dass im Unterschied zur wahrgenommen Aussenwelt immanent vorliegende Empfindungen seltenst ein begriffenes Wissen darstellen bei Kant begreift der Verstand nicht die einzelnen Empfindungen, er deduziert nur abstrakt ihr Bestehen. . so können innerliche Verfassungen nicht wie wahrgenomme Objekte intentional im Denken repräsentiert werden. wer es versucht, rein introspektiv sein Denken zu bedenken, muss schlimmstenfalls akzeptieren, sich selbst ein Fremder, ein einsamer Intimissimus, ein unfokussierbares Durcheinander zu sein.


eminenz der evidenz

was wie die eigene Existenz evident vorliegt, kann schwerlich bezweifeln werden. Evidenz gilt als ein proklamiertes Kriterium der Wahrheitsfindung und wurde schon bei scholastischen Autoren als unbezweifelbare Offenbarung der Schöpfung angesehen. unter atheistischen Gesichtspunkten hatte sich für die Aufklärung dann Augenscheinliches mit der Berufung auf die Vernunft als lumen naturale zu erhellen Evidenz selbst kann nur als Zirkelschluss gerechtfertigt werden. wer dafür argumentiert, beweist etwas, was er in seiner Argumentation voraussetzen muss. und wer dagegen argumentiert, begeht einen Selbstwiderspruch, da er voraussetzt, dass wenigstens seine Argumentation evident sei.. frei von verpflichtenden Traditionen gilt seitdem als evident, was sich ohne eine religiöse oder autoritäre Begründung selbstbezüglich zeigt. dies bedeutet konsequenter Weise auch, dass es beim Argumentieren, Ableiten und Widerlegen keine Letztbegründungen geben kann, nur die Gewissheit, dass etwas ohne methodische Vermittlung als einleuchtend erscheint Frege und Russell wollten die Wissenschaft mit der analytischen Philosophie auf eine universelle, historisch unwandelbare Rationalität einstellen, die sogar jeglichen Psychologismus ablehnte..
doch genaugenommen können dafür nur Befunde herhalten, die erwartungskonform in einen Erfahrungshorizont oder kohärent zu einem universell angelegten Wissensstand passen. wird jener immer grösser und ändern sich Kriterien dafür laufend, und dies nicht mehr über Generationen hinweg, sondern bei einer kürzeren Halbwertszeit von Theorien innerhalb weniger Jahre, wird der Anspruch von Evidenz zu einem blossen Ziel von Erkenntnisbemühungen bei Nietzsche war eine solche Wahrheit ein Schein der Verführung und item der Schleier einer unerreichbaren Frau, für die er die Peitsche empfahl.. Evidenz kann vielleicht nur eine begleitende Eingebung, aber kein endgültiges Kriterium der Wahrheitsfindung sein.


glauben im wissen

warum muss der Mensch auch einen Glauben für sein Wissen haben? reicht es nicht aus, sich einzugestehen, lediglich eine Meinung von universellen Zusammenhängen zu vertreten. da für die allermeisten Erkenntnisse im Mikro- oder Makrobereich nicht nicht sämtliche Implikationen eruierbar sind, bleiben sie ein zweifelhaftes Wissen, an dessen Geltung geglaubt werden muss. ein solcher Glaube ist die Hoffnung, dass dem Verstehbaren trotz mangelnder Überprüfbarkeit eine unumschränkte Geltung zukommt, da sie einen absoluten Standpunkt anvisiert. doch wo es um das Absolute geht, beginnt meist das Feld der Religion.
das rationale Denken kann nicht auf eine unbedingte Einheit im Denken verzichten, sie muss als wissenschaftliche Fiktion immer wieder behauptet werden das absolute Wissen als die höchste Stufe bildet bei Hegel erst den Rahmen für die Beantwortung der Frage nach der höchsten Erkenntnis.. wenn nur Bestimm- und Erkennbares möglich wären, würde kein Spielraum mehr für Spekulationen und Abstraktionen vorliegen, da jene erst in einem Unbestimmbaren einen Raum finden.


kontinuum des geistes

können Tiere denken? vermutlich besitzen alle Säugetiere, und auch manche Vögel, ein intentionales Bewusstsein, das dem menschlichen ähnelt bis ins 17. Jahrhundert hinein galten Tiere als eine Sache. Descartes sprach ihnen sogar jegliches Gefühlsleben ab.. Insekten wie Bienen oder Ameisen, welche über ein sehr kleines Gehirn verfügen, vollbringen als Individuen in einem komplex organisierten Staat sehr effizient intelligente Leistungen. aber sogar ohne Nervensystem können Einzeller seit Millionen von Jahren unter verschiedenen Bedingungen gut angepasst überleben.
man kann davon ausgehen, dass die Natur ein Kontinuum des Geistes durchzieht, der sich mit der Evolution als intelligentes Verhalten vielfältig und unabhängig voneinander verwirklicht hat. als transzendierendes Mängelwesen stellt der Menschen vielleicht nur eine bedingte Variante von diesem Vermögen dar.


anschauung als apriorie

braucht das Denken die Anschauung eines geometrischen Raumes? da sich gewohntermassen die Aussenwelt nur derart in der Wahrnehmung darstellt und erkennen lässt, muss die Frage wohl bejaht werden. ohne eine Anschauung müssten Vorstellungen von der Wirklichkeit und Begriffe über sie ins Leere laufen. doch würde es nicht ausreichen, das Gegebene als eine topografische Ordnung strukturell zu relationieren, d.h. nur mit Zahlenverhältnisse zu erfassen?
für Kant waren Raum und Zeit apriorische Formungen, welche nicht den äusseren Erscheinungen zu Grunde liegen und in ihrer Spezifik nur eine Eigenheit der menschlichen Kognition darstellen. demnach lässt sich die bewährte Dreidimensionalität unseres Anschauungsraumes nicht damit begründen, dass die physische Welt selbst über eine drei- oder vierdimensionale Struktur verfügt. es reicht aus, dass alles Wirkliche nur räumlich erscheint und nicht von einem tatsächlich vorliegenden Koordinatenkreuz geordnet wird. das vom Menschen erzeugte Bezugssystem ist lediglich ein mutables Konstrukt, das als euklidische Geometrie oder hyperbolische Mannigfaltigkeit sich eine geordnete Anschauung schaffen kann.
bei manchen Tieren garantiert bereits eine zweidimensionale Verortung die präzise Orientierung, und es wäre vorstellbar, sogar eindimensional das Umgreifende, wie bei einer Turingmaschine als linear durchlaufenden Datenspur zu erfassen. das sich mit seinen Sinnesorganen und dem Hirn evolutionär entwickelte Wahrnehmungsvermögen hat spezifische Raumvorstellungen für das Überleben von Organismen herausgebildet. nur der Mensch ist nicht daran gebunden. sein Wahrnehmungsvermögen kann gedanklich die biologische Disposition übersteigen, so dass ein angeborenes anisotropes Raummass, das Tiefen weiter entfernt aufzeigt, erkennbar und korrigierbar ist ein lediglich widerspiegelndes Erfassen der Umwelt wäre immer eine auf Sinnesdaten recht begrenzte Wahrnehmung.. werden körperliche Verhältnisse abstrahiert, lassen sich Anschauungen erweitern und mit mathematischen Modellen sogar bis ins Unendliche hyperdimensional kalkulieren wird die Orientierung als eine Wechselwirkung mit Qualitätsänderungen verstanden, können eingehende Daten dahingehenden modelliert werden, dass sie eine Anpassung durch Lernprozesse darstellen, die effizient sich eigene Anschauungsräume konstruieren.. auf jene Weise lassen sich nicht nur Wahrnehmungsverzerrungen ausgleichen und Erfahrungshorizonte modellhaft auf kosmologische Grössen erweitern, sondern der Anschauungsraum generell mit rein topografischen Verhältnissen relativieren. vielleicht werden räumliche und zeitliche Vorstellung irgendwann von rein strukturellen Abstraktionen erfasst und somit nicht mehr der Ausgangspunkt für kognitive Prozesse sein.


manipulierte wirklichkeit

was natürlich ist, kann in einem Garten nicht künstlich sein. es ist etwas eigenwillig Gewordenes und nichts Gemachtes. im Gegensatz dazu liegt das, was gehegt und gepflegt wird, in einer gewollten Wuchsform vor, der eine Absicht zugrunde liegt. dafür werden Pflanzen gezüchtet oder ihr Erbgut genetisch so verändert, dass spezifische Potentiale in vorliegenden Biotopen zum Zuge kommen. dies gilt ebenso für die Experimentalwissenschaften, insofern in Laboren die Phänomene, welche zu untersuchen sind, meist aufwendig selektiert werden. denn häufig lassen sich diffizile Zusammenhänge erst erkennen, wenn die Komplexität der vorliegenden Wirklichkeit reduziert wird. umso exakter die Wissenschaft dabei operiert, desto weniger hat sie es noch mit einer tatsächlich vorliegenden Wirklichkeit zu tun. so müssen für Versuche in der Physik heute Bedingungen geschaffen werden, die als Normalität äusserst selten oder vielleicht überhaupt nicht bestehen der Wissenschaftstheoretiker Ian Hacking meinte, dass Forscher manche Effekte oder Phänomene, von denen ihre Untersuchungen handeln, im Experiment erst erzeugen. für ihn gehen dann Experimente den Theorien voraus, ihre Untersuchungsobjekte sind jedoch reale Entitäten, insofern es sich um kausale Agenten handelt.. denn manche Elementarteilchen können gar nicht unabhängig vom Handeln des Forschers existieren, sie werden in grossen Beschleunigern unter Extrembedingungen künstlich erzeugt. das technologische Potenzial bestimmt dann, was epistemisch zu rechtfertigen ist, und das epistemische Potenzial, was technologisch relevant sein kann die Unterscheidung zwischen Natürlichkeit und Künstlichkeit wird somit irrelevanter und mehr eine phänomenologische Beschreibungsweise..
Giambatista Vico hatte schon vor 300 Jahren erkannt, dass Menschen nur das richtig verstehen, was sie selbst hervorgebracht haben. damit stellte er nicht nur die antike Überzeugung in Frage, dass jede techne auf eine episteme, also alles Handlungswissen auf ein kontemplatives Wissen beruhe, vielmehr zeichnete er unter dem Handlungswissen, das produzierende als das aus, welches erst zu einer Einsicht führt.


grenzen der arithmetik

warum lassen sich Prozesse im Universum mit einem solch künstlichen, von Menschen geschaffenen System wie der Arithmetik universell beschreiben? unter den Wissenschaften ist zuerst die Physik dazu übergegangen, die Mathematik als zuverlässigsten Beweis ihrer Theorien anzusehen. um Vorgänge präzis zu erfassen, reicht es hier aus, Regelmässigkeiten zu messen und mit algebraischen Äquivalenzen als Strukturaffinitäten darzustellen. Übereinstimmungen haben aber nicht ihren Grund in geheimnisvollen Naturgesetzen, denen Teilchen gehorchen, sondern darin, dass die experimentellen Bedingungen, mit denen physikalische Prozesse quantifiziert werden, auch vom Menschen modellhaft gestaltet werden.
Zählen setzt ein Beobachten und das Beobachten einen Beobachter voraus. die Realität ist nicht von sich aus gemäss der Abzählbarkeit ihrer Objekte geordnet. denn wo reale Instanzen nicht quantitativ formulierbar sind, stösst die mathematische Physik an Grenzen. jede Berechnung ist nur so gut und brauchbar, wie Formeln die Verhältnisse der Natur berücksichtigen und darstellen können. wo Algorithmen nichtlineare und chaotische Komplexitäten zu berücksichtigen haben, können, wie bereits beim Bahnverlauf von drei annähernd grossen Körper, mit elementaren Funktion Prozesse nicht mehr präzis kalkuliert werden das Zweikörperproblem ist durch die Keplerschen Gesetze lösbar, während die Integrale ab drei Himmelskörpern keine algebraischen Lösungen mehr ergeben. es ist unmöglich, ein vierdimensionales Vektorenkonglomerat zu berechnen..
es besteht kein Zweifel daran, dass die Natur weitgehend symbolisch und auf diese Weise mathematisch beschreibbar ist. die Mathematik ist eine kompakte Sprache mit der sich wissenschaftliche Modelle formulieren und auf eine logische Konsistenz hin überprüfen lassen. ohne eigene physikalische Realität schafft sie mit ihren Strukturen kalkulierbare Möglichkeitsräume, um Hypothesen zu verfeinern und um darüber hinaus Vorstellungen wie die des Unendlichen und des Irrationalen denkbar zu machen das mathematische Kontinuum hat seit der griechische Antike den philosophischen Diskurs befruchtet.. es stellt sich daher die Frage, ob die Mathematik nur ein Handwerkszeug des Physikers ist, mit dessen Hilfe sich das Universum beschreiben lässt, oder ob die Realität selbst eine arithmetische Struktur darstellt und somit vielleicht Physik und Mathematik am Ende eins sind oder es einmal werden?


nach der wissenschaft

was wird es nach der Wissenschaft geben? da das systematische Erkunden der menschlichen Wirklichkeit als Kulturtechnik Weiterentwicklungen unterliegt, muss konsequenterweise hier irgendwann eine höhere Form der Erkenntnis- und Weltbildproduktion erreicht werden. das wissenschaftliche Denken hatte mit welterklärenden Mythen seine Vorläufer und wird wohl ebenso Nachfolger haben.
es zeichnet sich bereits ab, dass zukünftige Erfolge bei der Genese von Begründungszusammenhängen fast ausschliesslich mit technologischen Innovationen und mit den Analysen einer künstliche Intelligenz man kann davon auszugehen, dass eine künstliche Intelligenz nicht nur menschliches Routineleistungen im Computer nachbildet, sondern sich mit Expertensystemen eigenständig optimiert und zunehmend autonomer agiert. erreicht werden. bereits jetzt sind ohne Hightech-Apparate, mediale Veranschaulichungen und digital sich steuernden Datenverarbeitung kaum noch neue Entdeckungen möglich. in naher Zukunft organisieren bestimmt primär intelligente Algorithmen die Wissensproduktion als strukturelle Mannigfaltigkeiten und erfassen für den Menschen in schwer überschaubaren topografischen Räumen rationale Zusammenhänge eine hyperdimensionale Topografie setzt einen Raumvorstellung voraus, die durch mindestens vier Koordinatenachsen konstituiert wird. in solch einem Raum kann man Strukturzusammenhänge nicht als eine reale Gegebenheit wahrnehmen, da sie die menschliche Imaginationskraft überfordern.. vielleicht wird es einmal unvorstellbar sein, dass ein technologischer Fortschritt an die Beschränkung einer anthropologischen Vorstellung gekoppelt war.


vagheit des logischen

das Digma des logischen Denkens ist seine Widerspruchsfreiheit. die klassische Logik verband jene Forderung sehr lange nach Aristoteles problemlos mit der ontologischen Binarität von Sein oder Nichtsein, so dass etwas nicht zugleich als wahr und falsch vorliegen konnte. inzwischen reicht ein solcher Bezug für die wissenschaftliche Heuristik nicht mehr aus, weil sich mit jenem Dualismus zunehmend schwer auflösbare Widersprüche wie Hempels Paradoxon oder die Cantorsche Antinomie ergeben.
um dem zu entgehen, nutzen erweiterte Logiksysteme seit Frege den logistischen Freiraum der Mathematik und quantifizieren Argumente sowie Schlussfolgerungen mit Kalkülen die Logik lässt sich nur in ein mathematisches Kalkül verwandeln, wenn sie nicht mehr an ontologische Wesenheiten gebunden ist. jene Reduktion hat ihr Fundament bereits im spätmittelalterlichen Nominalismus bei William von Occam und später in der neuzeitlichen Philosophie, die entweder empiristisch oder rationalistisch argumentierte.. ohne einen ontologischen Bezug können sie sogar gegen den Satz vom ausgeschlossenen Dritten verstossen und erfolgreich mit intentionalen Aspekten der Sprache operieren oder wie bei der Fuzzy-Logik mit statistischen Berechnungen zwischen wahr und falsch die Vagheit eines Möglichkeitsraumes verifizieren. Unschärfen werden dabei wie bei einer Wetterprognose mehr oder weniger präzis als graduelle Wahrscheinlichkeiten erfasst, so dass sie sich diskret berechnen lassen.
bei Peirce wurde das logische Operieren selbst das Dritte. dafür führte er, in Analogie zu seinem triadischen Zeichenmodell, die logischen Terme des absoluten, des einfachen und des konjugativen Relativen ein. der ontologische Status des Relativen wird zu einem informellen Sein, das sich rein aus strukturellen Beziehungen ergibt ein sich daraus ergebendes Informiert-Sein beansprucht dabei als eine konkrete Wirklichkeit ebenso einen ontologischen Status.. mit diesem Ansatz konnten kybernetische Modelle die ontologische Binarität von Sein und Nichtsein in immer komplexere Verhältnisse aufspalten und multilateral relativieren bei Gotthard Günther kann eine Polykontexturalität mehrere Bezugsrahmen behandeln, ohne dass eine Selbstreferenz in logischen Zirkeln strandet..
technologische Innovationen profitieren inzwischen im Bereich der künstlichen Intelligenz ungemein von einer solchen Weiterentwicklung. aber ebenso die Naturwissenschaften, da sie sich weniger an einen ontologisch fundierten Wahrheitsbegriff gebunden fühlen. sie können selbstbezüglich Modelle entwickeln und mit ihnen Phänomene als poietische Prozesse beschreiben. doch das Schlussfolgern ist mit der Öffnung zum Strukturellen ein komplex vages Unterfangen geworden und mitunter nur noch mit grossen Rechenkapazitäten operational zu bewältigen, die für den Menschen schwer nachprüfbar sind.


bodenloser fortschritt

mit Abstraktionen und formalen Verallgemeinerungen strebt das Denken nach universellen Erkenntnissen. auf jene Weise sollen letztendlich alle möglichen Kombination des Tatsächlichen erfasst werden, um die Welt mit wachsenden Erkenntnisfortschritten als Ganzes zu verstehen. doch kann es überhaupt einen solchen Sachverstand geben?
ein Gesamtzusammenhang, der physikalische Prozesse universell erklärt, müsste eigentlich kein Laplacescher Dämon sein. es würde ausreichen, die grundlegenden Wechselwirkungen der Natur als Relationen in eine vollständige mannigfaltige Anschauung zu bringen. ein derartiger Anspruch wäre allerdings ein bodenloses Ansinnen. denn zum einen sind die Naturwissenschaften, wie es einst Heidegger zum Vorwurf erhob, nicht gewillt oder in der Lage, ihr Wissensgebiet grundlegend zu definieren Heideggers Einwurf, dass die Wissenschaft nicht denken kann, ist deshalb kein Vorwurf, sondern eine Feststellung. (Was heisst denken? 4. Aufl. Tübingen: Niemeyer 1984, S. 4)., und zum anderen ist auch kein absehbares Niveau zu erwarten, das sie zu abschliessenden Ergebnissen kommen lässt.
solange es etwas zu deuten gibt, solange das Wesen der Dinge und ihre Erscheinungsformen nicht unmittelbar zusammenfallen, muss es wohl akzeptiert werden, dass fortwährend komplexere Probleme, weitere Formen des Nichtwissens und paradigmatische Krisen evoziert werden, ohne dafür einen allumfassenden Rahmen reklamieren zu können nach Marx wäre alle Wissenschaft überflüssig, wenn dies einmal der Fall wäre (Kapital III, MEW 25, 825.).


wissen prognostizieren

Kant hat drei Arten des Fürwahrhaltens unterschieden: den Glauben, das Meinen und das Wissen. seitdem für wissenschaftliche Innovationen weniger statische Gewissheiten, sondern zunehmend prozessuale Entwicklungspotentiale gesucht werden, müsste das Prognostizieren als vierter Modus hinzugefügt werden. das Wissen hat als höchste Form des menschlichen Zugangs zur Wirklichkeit ausgedient, mithin allgemeingültige Wahrheiten nicht mehr zeitunabhängig und vor allem nicht ohne Unwägbarkeiten und bei technologischen Erfindungen nicht ohne Risiken zu haben sind beim hinlänglichen Wissen reicht es aus, dass subjektiv und objektiv ein Fürwahrhalten vorhanden ist. beim wissenschaftlichen Wissen ist davon auszugehen, dass sich Voraussetzungen mit der Zeit definitiv wandeln und durch einen veränderten Zugang zur Wirklichkeit immer häufiger einen Perspektivenwechsel erzwingen..
jener Herausforderung kann erst ein epistemisches Prognostizieren gewachsen sein, das in und mit einem künftigen Entwicklungsstand operiert Prognosen sind Vorhersagen, die als mathematische Wahrscheinlichkeit entweder kalkulierbar sind oder auf Ahnungen beruhen.. wenn zu erwartende Fortschritte neue Erkenntnisse versprechen, wird wie an der Börse auf eine künftige Geltung eines Wissensstandes spekuliert. eine derartige Prätention orientiert sich weniger am tatsächlich Vorliegenden als vielmehr an einem zu erwartenden Zuwachs an Erkenntnissen. für solche Orientierungen sind nicht nur ständig höhere Bemühungen zu investieren, es ist auch ein Kredit zu zahlen, der zu einer hohen Verschuldung führen kann, insofern mit jeder Antwort sich neue Fragen ergeben und nachhaltig Unwägbarkeiten vor allem bei technischen Forcierungen zu erwarten sind.


kausale simplifikationen

die Technik ist für Kausalitäten ein ideales Medium. dies wird besonders deutlich, wenn es gelingt, in geregelten Kreisläufen Effekte als stabile Beziehungen zu optimieren. eine solche Segretion kann aber auch als ein Korsett angesehen werden, das Abläufe von wirklichen Zusammenhängen isoliert. denn werden Determinationen ganz mechanisch hergestellt, müssen Maschinen in einem spezifischen Setting ohne Verluste reibungsarm laufen oder, wo auf engstem Raum Millionen von Transistoren in einem Chip verbunden sind, braucht es ein gut ausgeklügeltes Design mit einer Lüftung, das bei einer hohen Taktfrequenz die Temperatur niedrig hält solche Optimierungen müssen regelmässig gewartet werden oder sich automatisch regulieren..
für technische Optimierungen gibt es in der Natur selten adäquate Vorlagen. der Mensch schafft dafür erst die nötigen Bedingungen und seine Leistung besteht nicht darin, stabile Ursache-Wirkungs-Beziehungen entdeckt zu haben, sondern in der Lage zu sein, die Voraussetzungen ihres Zustandekommens zu reproduzieren. solange es gelingt, Effekte fest zu installieren und von unerwünschten Einflüssen zu unterbinden, kann der Handlungsspielraum nachhaltig ausgebaut werden nur beim Quantencomputer gelingt dies noch nicht..
für Luhmann waren technische Artefakte kausale Simplifikationen, welche nur für bestimmte Ereignisse Zukunftsbindungen erlauben Technik konstruiert für Luhmann eine kausale Simplifikation für einen Erwartungszusammenhang, der sich auf eindeutig funktionierende Ursache-Wirkungs-Beziehungen beschränkt. und ein reduziertes Wissen verkörpern, das bei wechselnden Ansprüchen auf fortwährende Innovationen angewiesen bleibt. ein solches Defizit ist auch bei Entwicklungen der künstlichen Intelligenz zu konstatieren, insofern sich hier komplexe Prozesse auf festgelegte Anwendungen forcieren. obwohl inzwischen grosse Erfolge beim Schach bzw. Go-Spiel und in der Datenverwaltung erzielt werden, gibt es bisher keine eigenständige Weiterentwicklung als autonome Reproduktionen im Sinne einer Koevolution müssen sich kausale Beziehungen als Manipulation allzu optimiert profilieren, sind im Sinne einer Koevolution keine Selektionsprozesse möglich.. die Potentiale der künstlichen Intelligenz bleiben an menschliche Erwartungshaltungen gebunden und damit eine Hybrid von Kulturleistungen.


notwendige inkonsistenzen

das Wirkliche der Wirklichkeit muss mehr als die Gesamtheit aller Tatsachen umfassen. der Mensch will es jedenfalls so, insofern er von einer komplexen Einheit des Wissbaren ausgeht, was eine Kohärenz bei realen Zusammenhängen voraussetzt. dabei wird grundsätzlich vorausgesetzt, dass sich Widersprüche auf einer Metaebene, in einem noch nicht erfassbaren Gefüge von Relationen austarieren denn die Erfahrung lehrt, was als Ausschnitt widersprüchlich erscheint, passt meist in einem umfassenderen Verbund stringent zusammen..
für Nikolaus Cusanus war in seiner Lehre von der coincidentia oppositorum jede Welterfassung eine perspektivische, da sich unter verschiedenen Blickwinkeln gleiche Dinge unterschiedlich darstellen. erst eine letzte Wahrheit, welche für ihn nur eine göttlich unbedingte sein konnte, würde solche Differenzen aufheben es muss über Perspektivität und den mit ihr verbundenen Gegensatzcharakter auf Nicht-Kontrarietät hinausgedacht werden.. obwohl eine unbedingte Nullperspektive vorstellbar und mit den digitalen Medien in Modellen zunehmend simulierbar ist, entspricht sie genau genommen bloss einer menschlichen Vorstellung von einer konsistenten Harmonie, während das Reale vielleicht überdeterminiert vorliegt und gar keinem Konsistensgebot folgt.


problem des neuen

Aristoteles hat der Kreativität enge Grenzen gesetzt. indem er für eine Priorität der Verwirklichung gegenüber kontingenten Potentialen plädierte, kann im Seienden lediglich das hervorgebracht werden, was bereits angelegt ist. ebenso lässt sich für ihn ohne ein vorliegendes Wissen kein neues erwerben, da bei unveränderlichen Sachverhalten Erkenntnisse erst in Relation auf Bekanntes zu haben sind Wissen im engeren Sinne gibt es für Aristoteles nur von unveränderlichen Sachverhalten. dafür hat er Wirk-, Material-, Zweck-und Formursachen ausgewiesen..
die Philosophie der Antike versuchte das Geschehen in der Welt als Ganzes zu erklären und hatte dafür einen ungeheuren Abstand zwischen begrenzten kognitiven Mitteln zu akzeptieren. man ging dennoch davon aus, das Denken und Sein dasselbe sind. dabei konnte Wahrheiten nur als etwas Unveränderliches in einem Kosmos vorliegen, während das ontologisch nicht Einordbare als Trug abgelehnt wurde in der überlieferten Fassung kann der Satz von Parmenides: dass Denken und Sein dasselbe seien auch anders interpretiert werden. der Grund für das Denken sind dann existierende Seinsformen, während das ontologisch nicht zu ordnende als Trug abzulehnen ist..


überdeterminierte fragen

was kann der Mensch nicht wissen? was soll er nicht tun? und was darf er sich nicht erhoffen? seitdem Chancen und Risiken für wissenschaftliche Innovationen unbestimmbarer abzuschätzen sind, ist es wichtig zu wissen, was man nicht erkennen kann und für technologische Entwicklungen besser nicht erstreben sollte bereits Sokrates versuchte durch ein meist vorgetäuschtes Nichtwissen neue Erkenntnisse zu gewinnen..
wo neue Erkenntnisse als vage Vermutungen vermehrt mit technischen Entwicklungen verknüpft werden, nehmen schwer kalkulierbare Eingriffe in natürliche Kreisläufe zu und führen zu einer neuen Form des Nichtwissens. mit einer grösser werdenden Eindringtiefe artifizieller Systeme lassen sich nachhaltige Probleme somit seltener voraussehen. sie können trotz wachsendem Wissensstand nur als überdeterminierte Unbestimmbarkeiten ambivalent erfasst werden. Entscheidungs- und Handlungsprozesse benötigen deshalb eine stetig höhere Absicherung, welche vermehrt kollektive Ressourcen verschlingt oder sogar wie bei Unwägbarkeiten der Gen-Manipulation zu juristischen Verboten führt bei zunehmenden Risiken wird die Forderung, manches Wissen restriktiv zu unterbunden, vehementer vorgetragen..


subjekt als variable

ist das Ganze wahrer als das Einzelne, das detailliert Greifbare? entweder geht man davon aus, dass erst mit einer abstrahierenden Reflexion das Wirkliche zu verstehen ist, oder es wird vorausgesetzt, dass Erkenntnisse vorrangig an faktisch Feststellbares gebunden sind? für den holistisch denkenden Logiker Quine brauchen alle Erkenntnisansprüche eine empirische Theorie, und deshalb haben sich ebenso die Philosophie, Logik, und sogar Mathematik an der Erfahrung zu bewähren in seinem Aufsatz "Epistemology Naturalized" von 1969 entwirft W.V.O. Quine die Idee einer naturalisierten Erkenntnistheorie.. der Erwerb von verlässlichem Wissen vollzieht sich für ihn weniger innerhalb der Grenzen einer reinen Vernunft, als vielmehr mit den Grenzen, welche den Naturwissenschaften empirisch, also durch das nicht mehr Feststellbare aufgezeigt werden.
bei Kant war eine apriorische Erkenntnis noch eine, die für den Menschen unabhängig von der Erfahrung besteht. indem sie ein Wissen von notwendigen Zusammenhängen erst herstellt, ermöglicht sie über erfahrbare Tatsachen ein Verstehen der Wirklichkeit. das Apriorische schafft mit Begriffskonstruktionen die Voraussetzungen, welche bei einer Entgegensetzung von Subjekt und Objekt von vornherein vorliegen müssen die schroffe Entgegensetzung von Subjekt und Objekt sowie die Notwendigkeit einer Vermittlung beider kann man als ein postcartesianisches Syndrom ansehen.. doch streng genommen schrumpft bei Kant das idealistisch gestimmte Subjekt auf eine Variable und bleibt als transzendentales Ich ein abstrakter Gedanke, der mehr für objektive als subjektive Zusammenhänge fungiert Kant ging es tatsächlich mehr um die objektivierbare Erkenntnis. er beschrieb in seinen Kritiken deren Möglichkeitsbedingungen, um rationale Aussagen gegen die Ansprüche einer platonisch tradierten Metaphysik abzusichern..
insofern Wissensansprüche immer vorgeprägt und überlieferte mit einer Geschichte sind, scheint es unmöglich, kognitive Prozesse isoliert zu problematisieren. die zugespitzte Trennung zwischen den empirischen Komponenten einer Erkenntnis und den abstrakt formulierten Voraussetzungen für deren Erfahrbarkeit zeigt nur, wie eng der Bezug von sinnlichen Inhalten und Anschauungen ist. andererseits bleibt die Erkennbarkeit von Seiendem an konstruierte Voraussetzungen wie ein Weltbild als Vorstellung von einem Ganzen gebunden, obwohl es dafür keine empirische Basis gibt und wohl niemals geben kann.


topografie des denkens

aus einem Hier und Jetzt heraus entfaltet sich das Denken und ist von einem reflektierenden Subjekt, der Perspektive einer mentalen Identität nicht abzulösen. dennoch kann der Ort des Denkens nicht auf Personen oder Sprechakte eingegrenzt werden und ebenso wenig auf die Schallwellen gesprochener Sätze, das Feuern von Neuronen oder die sozialen Effekte einer Sprache.
für Descartes existierte ein Bewusstsein im Gegensatz zum Körper nicht in einem Raum, sondern in der Zeit René Descartes ging davon aus, dass ein Bewusstsein in der Zeit, aber nicht im Raum existiert.. wenn bis heute unterschwellig an seiner problematischen Trennung zwischen denkender Substanz und rein körperlichem Dasein festgehalten wird, dann um geistige Prozesse nicht reduktionistisch zu erklären, also nur als biochemische Reaktionen oder soziale Verhaltens- und Sprachspiele. beim Denken handelt es sich immerhin um mentale Prozesse, die sich als Epi-Phänomene emergent übersteigen und zugleich an sich Subjekt und für sich Objekt sind obwohl für das Denken gleichfalls physikalische Gesetze gelten, kann es auf jene nicht zurückgeführt werden.. eine solche Verschränkung, welche die eigene körperliche Präsenz auch als Transzendenz umfasst, generiert eine heterotopische Virtualität in einem unbestimmbaren Möglichkeitsraum nur so lassen sich mentale Akte als aufgeschobene oder ausbleibende Reaktionen erklären, als ein Aufgeschobenes zwischen Grössenwahn und Melancholie, zwischen Gewissheit und Ungewissheit.. mit wachsendem Wissensstand und der Extension durch Speicher- und Modellierungsmedien beanspruchen bewusste Reflexionsprozesse fortwährend eine Welt, welche die Wirklichkeit übersteigt und bei einem stetig wachsenden Wissensumfang vielleicht irgendwann nicht mehr in sie hineinpassen.


jenseitige perspektive

obwohl die Realität das übersteigt, was sich bewusst erfassen lässt, bleibt die Vorstellung von ihr als Ganzes eine imaginäre Option. für Leibniz war sie bei einem begrenzten Horizont an die Vielheit unterschiedlicher Perspektiven gebunden und in seiner Theodizee eine Eigenschaft von einzelnen Monaden, welche mit einem jeweils anderen Blickwinkel ganz viele Universa generieren obwohl Monaden bei Leibniz in ihrer Perzeptionen so verschieden sind, stellt jede in ihrer Weise das Universum vor. jede Monade ist ein jeweils eigenes Abbild der Welt..
Kant verband die Begriffe Horizont und Perspektive als basale Voraussetzung für menschliche Verstandesleistungen mit seiner Transzendentalphilosophie. indem er nicht die Frage favorisierte, was etwas ist, sondern was die Bedingungen für mögliches Wissen über etwas sein können, wurde die Erkennbarkeit von Wirklichkeit an ein Bezugssystem gekoppelt, welches sich das menschliches Denken selbst schafft spätestens seit der Renaissance bezeichnet man in Analogie zur Erdkugel und zum Himmelsglobus die Gesamtheit der reinen Erkenntnisse als globus intellectualis. Kant versuchte dafür ein Modell zu entwerfen, mit dem die Grenzen menschlicher Erkenntnis zu bestimmen sind.. eine standpunktunabhängige Betrachtung der Realität scheint damit undenkbar. auch wenn der Mensch als Beobachter zweiter Ordnung seinen begrenzten Horizont einordnen und relativieren kann eine Beobachtung zweiter Ordnung ist auch nur eine Beobachtung die Beobachtungen reflektiert., wird er niemals in der Lage sein, von einem Jenseits des Jenseitigen alle möglichen Perspektive zu erfassen das Denken braucht immer ein Irgendwo als Standpunkt, auch wenn es sich um eine theoretisch fiktive Position handelt..


gesamtheit der vernunft

die theoretische Physik hat ihre Hoffnung, mit einer Theory of Everything die Wirklichkeit als Ganzes zu erfassen, mittlerweile aufgegeben. oder zumindest aufgeschoben, da die Vernunft weiterhin dazu neigt, den Geltungsbereich von Erkenntnissen in einer systematischen Gesamtheit als Anspruch aufrechtzuerhalten.
obwohl hinter der verstehbaren Wirklichkeit immer auch ein fortwährendes Unverstehen anzunehmen ist, wird an dem Phantasma einer omnipotent universellen Erkenntnis festgehalten. ein solches Ziel abzulehnen, wäre wohl ein Verrat an einem transzendentalen Denken, das als Teil der Wirklichkeit ebenfalls nicht völlig zu durchdringen ist und somit erwarten lässt, das mentale Prozesse grundsätzlich das Potential für immer weitere und vielleicht sogar unendlich viele neue Erkenntnisse haben.
bei Kant war die Vorstellung der Welt an ihre Erkennbarkeit gebunden und ihre Erkennbarkeit wiederum von einer vorstellbaren Welt bedingt dabei sind Versuche, Antinomien zu begrenzen, indem sie systematisiert, profanisiert oder als Scheinprobleme hingestellt werden, letztendlich immer zum Scheitern verurteilt.. geht man davon aus, dass sich das Vorstellungsvermögen immer über Grenzen des Wissens hinwegsetzt, lässt sich also das Universum weder mit noch ohne einen omnipotenten Anspruch, also der Idee von einem Laplacesche Dämon vollständig beschreiben bei Kants Unterscheidung zwischen einer Welt für uns und einer Welt an sich wird nicht der Gegensatz von unterschiedlichen Wirklichkeitsebenen herausgestellt, sondern vielmehr die mittelbare Weise einer kognitiven Aneignung..


veritatives irren

die Griechen der Antike bezogen Naturphänomene auf die Ordnung des Kosmos, so dass bei ihnen Theorien das Vermögen verkörperten, in einem alles und alles in einem zu sehen. heute sind wissenschaftliche Erklärungen eher spezialisierte Strategien, welche mit dem Mut zum Irrtum Ausschnitte der Wirklichkeit zu modellieren versuchen nach Jakob von Uexküll ist die Wissenschaft von heute immer der Irrtum von morgen.. der Mensch bleibt bei einer persistent begrenzten Erkenntnisfähigkeit auf ein Mutmassen angewiesen. er muss es wagen zu irren, und ebenso akzeptieren, dass sein Irregehen zur Vernunft gehört für Kant muss in jedem irrigen Urteile immer etwas Wahres liegen. ein totaler Irrtum wäre für ihn ein gänzlicher Widerstreit gegen die Gesetze des Verstandes und der Vernunft (siehe B-Ausgabe der Kritik der reinen Vernunft).. der Irrtum kann nicht das Gegenteil der Wahrheit sein, wenn er sehr präzis auf die Fähigkeit der Unterscheidung zwischen falsch und richtig verweist als ein vorliegender Tatbestand kann das Irren unabhängig von einer vertretenen Überzeugung auch einen erheblichen heuristischen Wert darstellen. deshalb sind Fehldeutungen und Missverständnisse nicht selten in den Wissenschaften Türöffner für neue Denkansätze..
für die Protagonisten des kritischen Rationalismus wurde, um einen permanenten Fortschritt für den Wissensstand zu gewähren, das Irren sogar mit dem Trial-and-Error-Prinzip zu einer Methode. indem jener Ansatz meinte, die Asymmetrie von Verifikation und Falsifikation vermitteln zu können, behauptete er unterschwellig, eine unfehlbare Erkenntnisinstanz zu sein. doch konsequenter Weise muss ebenso ein Prinzip der Falsifizierbarkeit davon ausgehen, dass es sich dabei auch um einen irrtümlichen, weil allzu universell behaupteten Ansatz handeln kann.


vakante superposition

warum darf nur Schrödingers Katze eine leibhaftige Superposition in der Quantenwelt einnehmen? obwohl sie sich im Gegensatz zum Menschen in den eigenen Schwanz beissen kann, wird es ihr immer an der Fähigkeit mangeln, ihr Dasein in ein universell komplexes Weltbild zu transzendieren. die Auflösung quantenmechanischer Wahrscheinlichkeiten braucht einen in der Natur nicht völlig involvierten Beobachter, der auch paradoxe Zusammenhänge versteht bei Schrödinger kann in einem Gedankenexperiment eine Katze zur gleichen Zeit tot und lebendig sein und nimmt dabei wie ein Elektron eine Superposition ein..
jene Rolle vermag wohl bislang einzig der Mensch einzunehmen. nur er vermag es, eine dekohärente Welt zusammenzuhalten, indem er immer wieder auf sie schaut und, egal ob sie ihm als ein Ganzes oder nur Partikulares erscheinen, grundlegende Phänomene universalisiert nach der analytischen Verwirrung, der hermeneutischen Dekonstruktion und einem poststrukturalistischen anything goes beginnt der Mensch umso mehr sich selbst und seine Welt als inkonsistent zu begreifen..


immaterielle fiktionen

obwohl ein alles umschliessendes Universum das übersteigt, was sich bestimmen lässt, ist der Mensch in der Lage, dafür eine Vorstellung zu entwickeln. er kann den Bereich seiner Erfahrungen transzendieren und mit einem vorgestellten Blick exorbitante Standpunkte einnehmen. das Denken operiert relativ, wenn es wirkende Zusammenhänge in atomaren Mikro- oder exorbitanten Makrobereichen zu verstehen versucht und ist dann nicht auf das Erfassbare einer greifbaren Wirklichkeit beschränkt dabei geht es nicht darum, dass Eigentliche einer Wirklichkeit zu ergründen. denn intrinsische Merkmale können kaum erfasst werden, nur die Relationen zwischen den Dingen in Systemen, während sich Eigenschaften einzig als kausal-strukturaler Äquivalenzen spezifizieren lassen. zu einer essentiellen Washeit (quidditas) gibt es keinen erkenntnismässigen Zugang.. um Eigenschaften sowie Dynamiken systematisch zu erkennen, reicht es aus, das Messbare als geordneten Zustand oder komplex determinierten Prozess strukturell zu taxieren.
doch was stellen überhaupt Strukturen dar? sie beschreiben einerseits als Orientierungsrahmen der Ratio zu untersuchende Phänomene und werden andererseits als Relationen der Wirklichkeit vorausgesetzt. somit sind sie ein Raster der menschlichen Wahrnehmung und zugleich unterstellte Prinzipien des Erkennbaren. da die Realität aber für den Menschen überdeterminiert vorliegt, kann es sich nicht um identische und nicht einmal um analog korrespondierende Verhältnisse handeln.
eine von Aristoteles ausgehende und im neuzeitlichen Rationalismus weiterentwickelte Ontologie wollte eine Logik des Seienden sein und übertrug, um eine umfassende Erkennbarkeit zu behaupten, logische Strukturen auf die Sphäre allen Seins. eine solche Gleichsetzung gelingt freilich nur mit Weltbildern als Sinn-Konstrukten, die häufig beliebig erfunden werden, um irgendwann wie der alte Zeus-Glaube wieder verworfen zu werden. solange nicht zu klären ist, ob logische Strukturen ebenso in der Realität wirken, gehörten sie für Nicolai Hartmann daher in eine ideale Sphäre.
ein spekulativ neuer Realismus geht mittlerweile davon aus, dass die Welt neben konkret vorliegenden Entitäten ebenso aus immateriellen Fiktionen des Denkens bestehen muss da es Namen ohne Referenz gibt, hat Meinong bereits 1904 vorgeschlagen, dass unser Universum nicht nur von real existierenden Objekten bevölkert wird, sondern abstrakte und imaginäre Entitäten mit einschliesst.. für deren Protagonisten und besonders für Graham Harman haben immaterielle Fiktionen des Denkens eine gleiche Existenzberechtigung wie empirische Tatsachen. ein Gedanke über ein abstraktes Bild ist somit kein Epiphänomen, sondern genauso real wie der neuronale Zustand eines Gehirns im Moment der Betrachtung. für eine solche ontologische Grosszügigkeit werden die Bereiche des Seins interferent gesehen, auf dass sich der Dualismus von Geist und Materie mit einem substanziellen Pluralismus überwinden lässt. dies hat immerhin den Vorteil, dass die Realität auch ohne einen bestimmbaren Bezug zwischen transzendentaler Vernunft und Emperie als eine stets wahr gegebene vorliegt die Vernunft ist für jenen Realismus nur noch Vermögen und auch durch ein notwendiges Nichts an Erfahrung ausgezeichnet. sie kann, wenn sie das nicht Erdenkliche der Welt fabuliert, phantasiert oder fingiert, sich rein spekulativ entfalten..


hier und jetzt

die scheinbar konkretesten Wörter einer Sprache, hier (hic) und jetzt (nunc), sind bei Hegel zugleich die allgemeinsten. weil überall und immer verwendbar, verweisen sie als variable Indices nicht anhaltend auf das Selbe im Weltganzen. daran hat sich aus heutiger Sicht wenig geändert. denn bei manchen Elementarteilchen ist sogar nur für ein paar Millionstel Sekunden eine topografische Zuordnung möglich im Bereich des elementar Punktförmigen, d.h. Nulldimensionalen ist die Welt weder real noch lokal, sondern unbestimmt eine Wellenfunktion..
kurzlebige Entitäten erfordern eine äusserst präzise Wahrnehmung, und mitunter werden sie erst durch mathematische Berechnungen erfasst, wie bei den ephemeren Higgs-Teilchen, welche, wenn sie mit beinaher Lichtgeschwindigkeit fliegen, niemals die kurze Strecke bis zu einem Detektor überdauern. einzig Zerfallsprodukte lassen sich nachweisen, da jene Objekte sich jedem direkten Nachweis in der Gesamtheit einer wahrnehmbaren Wirklichkeit entziehen in der Quantenwelt kann zudem die geringste Störung von aussen zu einer Dekohärenz führen, so dass der Zustand eines Systems sich irreversibel verändert..


hybris des erkennens

das wissenschaftliche Denken strebt nach Allgemeingültigkeit und findet sie vorwiegend bei beständig verlaufenden Prozessen. nur je detaillierter und präziser Zusammenhänge im Mikro- und Makrobereich exploriert werden, desto mehr offenbaren sich jene auch als schwer zu kalkulierende Instabilitäten. selbst bei einfachen Systemen mit drei Körpern, sorgen Gravitationskräfte bereits für so komplizierte Bahnkurven, dass geringste Änderungen zu unberechenbaren Veränderungen führen während das Zweikörperproblem durch die Keplerschen Gesetze analytisch lösbar ist, sind Integrale im Fall von mehr als zwei Himmelskörpern nicht mehr mit elementaren Funktionen berechenbar..
wissenschaftliche Prognosen können Prozesse meist nur kalkulieren, indem sie Phänomene auf überschaubare Faktoren oder Randerscheinungen reduzieren. bei komplex dynamischen Abläufen, die wie in der Thermodynamik, Biologie oder bei soziologischen Dynamiken stark abstrahierende Betrachtungen erfordern, fällt es hingegen schwer, Relationen deterministisch oder stochastisch zu erfassen.
nichtsdestotrotz werden in den Naturwissenschaften universell wirkende Strukturen für alle Phänomene der Wirklichkeit unterstellt. mit mathematischen Modellen und digitalen Simulationen erhofft man sich, Zusammenhänge im immer grösserem Umfang zu analysieren, und mitunter gelingt dies erst, wenn Effekte einer Selbstorganisation unterstellt werden der Begriff negative Entropie wurde von Erwin Schrödinger geprägt und beschreibt Prozesse, die Entropie exportieren, um ihre eigene Entropie niedrig zu halten.. verbindliche Regelmässigkeiten müssen sich dann nicht mehr aus den Eigenschaften einzelner Entitäten, den Konstituenten der Materie ableiten, sie sind mit der Vorstellung von einer Gesamtheit als systemische Eigendynamik oder sogar als negative Entropie beschreibbar bemerkenswerterweise scheint es eine Universalität der Strukturbildung zu geben, mithin Zustandsänderungen bei physikalischen, chemischen oder auch biologischen Systeme nach den gleichen Gesetzmässigkeiten ablaufen und in mathematische Formeln erfasst werden können..
das wissenschaftliche Denken ist darauf angewiesen, Ordnungen zu beanspruchen, die mit Relationen die Menge der ermittelbaren Fakten per se übersteigen bei Kant war die Allgemeinheit ein ausschlaggebendes Kennzeichen für eine objektive Gültigkeit von Aussagen und Begriffen.. einzig ausserhalb von wissenschaftlichen Paradigmen braucht es für die Orientierung keine unabhängig vom eigenen Bewusstsein zu objektivierende Begründbarkeit. nur da der Verstand dazu neigt, seinen Standpunkt zu wechseln und dann Wahrgenommenes zu relativieren beginnt, ist er sogar bei der alltäglichen Orientierung auf einen verlässlichen Rahmen angewiesen. letztendlich ist wohl nur ein übergeordnetes Verständnis in der Lage, den Menschen vor einem infiniten Regress des Aufeinanderbeziehens von Ansichten zu bewahren.


mass des denkens

es fällt schwer eine totale Ganzheit zu behaupten, die als Zusammenhang alles umfasst, was als Sachverhalt tatsächlich und potentiell vorliegt. die Realität ist zu mannigfaltig für ein subjektives Erkennen, aber als ontologische Gegebenheit auch etwas Relativierbares. der Mensch kann sie immerhin mit seinen Verhältnissen erfassen und wird dabei, wie einst Protagoras feststellte, zum Mass aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind der von Platon überlieferte Homo-mensura-Satz des Protagoras wird je nach Übersetzung der Konjunktionen subjektivistisch, sensualistisch oder relativistisch interpretiert. dabei unterschlägt man gern die grundlegende Bedeutung, welche sich mit dem Wort Mass ergibt..
doch ist das menschliche Erkennen ein Bestimmen und kein Wissen von den Dingen selbst, insofern im Universum quantifizierbare Grössen nicht an sich vorliegen, lediglich relative Verhaltensweisen von Teilchen und Feldern, die sich aus ihnen zugrunde liegenden Beziehungsstrukturen ergeben.
wer das Wirkliche im Rahmen eines Kosmos, Multi- oder Megaversum mit seinen Bezugsgrössen massnimmt, erhält niemals ein unmittelbares Abbild, sondern nur seinen Messverfahren entsprechende Relationen von Phänomenen. die Realität üblicherweise bezieht sich das Wort Realität auf den Bereich, der unabhängig vom Bewusstseinszustand existiert. wird in der Form erkannt, in der sie gemäss einer normierbaren Perspektive zugänglich ist, nämlich bestimmt durch Zahlen und syntaktische Strukturen des Ausdrückbaren. auf diese Weise lässt sich zwar ebenso das nicht Erfassbare variabel explorieren, aber allenfalls als ein abwägendes Spekulieren mit der Annahme einer allumgreifenden Gesamtheit die Idee eines universellen Zusammenhanges kann wohl nur eine Präsumtion sein, die sich im Nachhinein zu rechtfertigen hat., die latent vorausgesetzt wird, damit Bezüge zu und zwischen den seienden Dingen überhaupt möglich sind.


lücke im rationalen

ob die Realität in ihrer Komplexität als eine erkennbare vorliegt oder nicht, ist eine schwer zu beantwortende Frage. aber noch schwieriger ist es zu klären, warum es eine Frage nach der Erkennbarkeit für räumliche und zeitliche Mannigfaltigkeiten überhaupt gibt das Befragen der Frage nach einer Erkennbarkeit schafft eine Differenz, die verdeutlicht, dass das zu Erfragende aus der menschlichen Perspektive bereits als eine Annahme vorliegt.. das menschliche Denken kann sich weder auf einen Anfang noch ein Ende, auf kein erstes und kein letztes Wissen bei Erkenntnisprozessen beziehen und es bleibt stets lückenhaft solche Lücken kann auch kein Laplacesche Dämon füllen..
dies müsste frustrierend sein, ist es aber nicht, solange die Kombinationskraft des Verstandes durch Phantasie ergänzen werden kann. assoziativ ist es möglich, den vorliegenden Wissensstand immer wieder neu zu einer zusammenhängenden Gesamtheit, einer ontologisch behaupteten Universalie zu verknüpfen. dafür braucht es Fiktionen und vor allem das Narrativ, dass überhaupt kohärente Zusammenhänge in der Wirklichkeit vorliegen. um die Realität als Totalität in eine Vorstellung zu bringen, muss der Mensch sich nur einen Standpunkt imaginieren, mit dem er sich vorstellen kann, eine Welt ausserhalb des eigenen Fliegenglases zu betrachten der Fliege den Ausweg aus dem Fliegenglas zu zeigen, war für Wittgenstein immerhin das Ziel der Philosophie..


sinn des sinnlosen

sinnlose Aussagen, wie die semantische Antinomien "ich lüge" oder "ich existiere nicht", sind weder falsch noch wahr. sie lassen sich in jeder Sprache formulieren und stellen einen Nebeneffekt generischer Potentiale von Grammatiken dar. die Vertreter des Logischen Empirismus haben sich an Propositionen, die keine Verifizierbarkeit zulassen, lange Zeit die Zähne ausgebissen A.J. Ayer vertrat in "Wahrheit, Sprache und Logik" die These: falls sich nicht prinzipiell angeben lässt, wie man über Wahrheit bzw. Falschheit entscheiden kann, sollen Aussagen als wissenschaftlich sinnlos verworfen werden.. sinnlose Sätze und vor allem Paradoxien kann man nicht einfach verwerfen, da immer davon auszugehen ist, dass sie das Potenzial für neuartige Reflexionszusammenhänge haben warum etwas sinnvoll ist und warum nicht, ist eine Frage, zu der sich häufig noch nichts Sinnvolles sagen lässt..
um nicht evident erscheinenden Tatsachen auf den Grund zu gehen, braucht es für Mutmassungen Sprachpotentiale, mit denen sich auch Aussagen formulieren lassen, welche weder falsch noch wahr sind. erst auf diese Weise lässt sich denkbar Unmögliches oder sogar gänzlich Unerwartetes anvisieren. das Insistieren auf inadäquate Sachverhalte macht Sinn, insofern nicht immer vorab feststellbar ist, ob etwas beweisbar ist oder nicht. ein universelles Denken kann es sich nicht leisten, Sätze ohne Wahrheitsgehalt völlig abzulehnen. die Wirklichkeit übersteigt stets Begreifbare, und sie es muss auch, damit sie letztendlich ein Rahmen für Erkenntnisprozesse bleibt.


technik als prüfstein

die Technik ist zum Prüfstein des Wissens geworden und, wo sie erfolgreich theoretisches Wissen in ein praktisches System transformiert, auch das Zertifikat für wissenschaftliches Know-how. technologische Erfindungen werden somit immer mehr zu einer Sinnstiftung der Forschung. in den Laboren entscheiden technische Ausstattungen nicht nur über die Berechtigung einer Theorie, sie verkörpern sie mitunter geradezu, da erst das, was im Mikro- oder Makrobereich erfasst wird, wissenschaftliche Modelle unterfüttert bereits Gaston Bachelard hat die Überlegung vorgetragen, dass technische Instrumente tatsächlich die Verkörperungen von Theorien sind, die sie überprüfen..
Technologien haben sich in einer kontingenten Umwelt als basaler Mechanismus der Kontrolle bewährt. wo sie physikalische Prozesse in kausal fixierten Abläufe halten, binden sie wirksam zukünftige Erwartungen die Technosphäre ist eine Welt, die der moderne Mensch in der Technik erschafft und durch sie auch begreift.. selbst Misserfolge führen dann nicht zur Abkehr, sondern zum Ausbau von technischen Systemen, um Nicht-Wissen in gültiges Wissen zu transformieren. für Arnold Gehlen war der Mensch als Mängelwesen dazu verdammt, sich mit der Technik entsprechend seinen steigenden Bedürfnissen die Umwelt zu gestalten. doch man kann ebenso wie der Soziologe Helmut Schelsky argwöhnen, dass Technik nicht eine notwendige Mängelkompensation sei, sondern eine blosse Überschussleistung, die letztendlich mehr Probleme schafft als löst eine komplex raumgreifend sich entwickelnde Technik führt zur Entstehung eines globalen Metasystems, das sich in Konkurrenz zu Bio- und Geosphäre herausbildet..


leidenschaftliche anmmassung

wenn es alles gibt, was es geben kann, warum dann nicht gleich als erkenn- und begreifbare Tatsachen? die Frage scheint vermessen zu sein, wenn man davon ausgeht, dass der Horizont des Verstehenwollens immer an einen aktuellen Erkenntnisstand gebunden bleibt und die Realität nur aus einem Lebensbezug heraus verstehbar ist. die Vorstellung von einer allumfassend erkennbaren Realität ist wohl eine menschliche Hybris, mit der versucht wird, fortwährend Möglichkeiten des Unendlichen in ein Verhältnis zum Begreifbaren des Endlichen in ein Verhältnis zu setzen das Denken verwickelt sich zwangsläufig auch in Antinomien, wenn es einen absoluten Raum bedingt als Unendliches umfassen will. dabei kann es eine Gewissheit lediglich mit dem Wissen der Ungewissheit geben, so wie die Vorstellung von einer Begrenzung in Raum und Zeit bereits deren Grenzenlosigkeit voraussetzt..
Kierkegaard machte die Leidenschaft der menschlichen Ungeduld dafür verantwortlich, davon auszugehen, dass alles verstehbar sein muss für Kierkegaard war es das höchste Paradox des Denkens, etwas entdecken zu wollen, das es selbst nicht denken kann. (Philosophische Brocken). da es freilich keine Nullperspektive und keine empirische Basis für ein solches Ansinnen gibt und wohl niemals geben kann, bleibt das Wissen um sein Nichtwissen das Fatum des menschlichen Verstehens, um zu einer unabschliessbaren Sinnsuche anzutreiben für die absolute Konzeption ist Glauben nur dann interessant, wenn er auch wahr ist. Irrglaube dürfte eine schlechte Grundlage für eine umfassende Theorie sein..


© frank richter, 2016-19