34,80
€
inkl. MwSt
- Verlag: trafo Wissenschaftsverlag
- Genre: keine Angabe / keine Angabe
- Seitenzahl: 346
- Ersterscheinung: 20.07.2022
- ISBN: 9783864642272
Cyberscience – Wissenschaftsforschung und Informatik.
Digitale Medien und die Zukunft der Kultur wissenschaftlicher Tätigkeit
Gerhard Banse (Herausgeber), Klaus Fuchs-Kittowski (Herausgeber)
ln den in diesem Band enthaltenen Beiträgen werden die Veränderungen der Forschungssituation durch den Einsatz der modernen lnformations- und Kommunikationstechnologien (IKT), speziell der Internet-Technologien, in vielfältiger Weise dargestellt. Ihre Anordnung folgt der gerade beschriebenen methodologischen Struktur der Forschungssituation mit ihren vier Elementen. Das Anliegen der Tagung war es, den Einfluss des Computers und der Entwicklung der globalen digitalen Netze, des Internets, auf die Entwicklung der Wissenschaften möglichst umfassend, d. h. am Beispiel der Entwicklung unterschiedlicher Wissenschaften, darzustellen. Die Aufeinanderfolge von Beiträgen aus sehr unterschiedlichen Gebieten ist somit gewollt.
Zu (I) Problemfeld und Methodengefüge der Forschungssituation
In diesem Abschnitt fassen wir die Beiträge von Werner Zorn, Christiane Floyd, Christian Stary und Klaus Fuchs-Kittowski, Klaus Kornwachs sowie Nadine Schumann und Yaoli Du zusammen.
Bei der Forschung im Zeitalter des Internets steht die Forschung zur Entwicklung des Internets selbst im Vordergrund, wie dies durch den Beitrag Internet: Von AUP – Acceptable Use Policy – zu LoG – Limits of Growth – ??? von Werner Zorn im Zusammenhang mit den Kämpfen um die Normung in exzellenter Weise dargestellt wird. AUP bezeichnet den Wohlverhaltens-Kodex innerhalb von Gemeinschaftseinrichtungen, zu welchem die Teilnehmer mit der Zulassungsberechtigung verpflichtet werden. Grund für AUPs sind Schwachstellen in Systemen, welche technisch ansonsten nur mit großem Aufwand oder gar nicht beseitigt werden könnten.
Mit dem rasanten quantitativen und vor allem auch qualitativen Wachstum des Internet nahm die Verletzlichkeit zu und damit auch die Frage von grenzwertigem Einsatz – charakterisiert durch den Begriff Limits of Growth, ergänzt um Limits of Trust. Mit der Untersuchung der genannten Elemente unter dem Einfluss der modernen IKT ist die Methodenentwicklung in den Wissenschaften, unser Verständnis von wissenschaftlichem Wissen grundsätzlich zu behandeln, denn die Entwicklung und Nutzung der IKT als Erkenntnismittel beeinflusst wesentlich das ganze Ensemble wissenschaftlicher Methoden und damit die Art und Weise der Gewinnung wissenschaftlichen Wissens.
Darauf baut Christiane Floyd in Wissensprozesse in der Cyberscience auf, indem sie Veränderungen in der wissenschaftlichen Forschungs- und Entwicklungsarbeit in der sogenannten Cyberscience erörtert. Diese werden durch mehrere Faktoren ausgelöst: durch die Schwerpunktverlagerung von der Tätigkeit Einzelner zur Kooperation in Wissensprojekten, durch neue Formen der Kommunikation, Erkenntnisfindung und Zusammenarbeit im Zuge der Verwendung von Internettechnologien und Künstlicher Intelligenz, durch die Globalisierung, bei der wissenschaftliche Problemstellungen weltweit verteilt oder vernetzt bearbeitet werden, und durch das Zusammentreffen tief greifender Differenzen aufgrund der persönlichen, organisatorischen, disziplinären und kulturellen Perspektiven der Beteiligten. Auch der Beitrag Zur Methodologie sozio-technischer Informationssystem- und Arbeitsgestaltung von Christian Stary und Klaus Fuchs-Kittowski zur soziotechnischen Informationssystemgestaltung und deren philosophisch-erkenntnistheoretischen Grundlagen ordnet sich hier ein: Es geht um Konstrukte der Design Science und damit verbundener Vorgehensweisen zur Erschließung von Anforderungen an praxisorientierte Lösungen in organisationalem Kontext und darauf abgestimmter Zyklen humanzentrierter Technologiegestaltung. Es gilt, den naiven Realismus sowie jede Form des Antirealismus zu überwinden, denn ohne einen bewusst vorgenommenen Realitätsbezug ist keine sicher funktionierende Software, kein menschengerechter Einsatz der IKT zu gewährleisten.
ln seinem Beitrag Zur Systemtheorie des Lesens und Schreibens – Skizze einer Theorie der Pragmatischen Information entwickelt Klaus Kornwachs seine Theorie der Pragmatischen Information weiter. Der Begriff der Pragmatischen Information entstand aus der operationalen Sichtweise, wonach Information, die rezipiert wird, eine Wirkung hat. Diese „Wirkung“ ist ganz allgemein zu verstehen und hängt davon ab, welche Systembeschreibung man wählt. Im Kontext physikalischer Systeme kann man den Begriff der pragmatische Information dazu benutzen, die Wirkung auf ein empfangendes System zu modellieren. Die physikalisch mögliche Beobachtung der Veränderungen von Strukturen und/oder Verhalten ist wiederum als Information (output) beschreibbar und kann als aufgezeichnete Beobachtung als Schreiben interpretiert werden. Pragmatische Information wird als ein verallgemeinertes Produkt aus Erstmaligkeit und Bestätigung konzipiert, die als perspektivische Größe nur systemspezifisch bestimmt werden kann.
Nadine Schumann und Yaoli Du thematisieren in ihrem Beitrag Pragmatische Information in Interaktion den Informationsbegriff in der Interaktion von Mensch und Maschine. Sie stellen ein pragmatisch interaktives Konzept von Information vor, welches sich maßgeblich an der Benutzbarkeit von Technik und damit an den Handlungsmöglichkeiten der Nutzenden orientiert. Ausgehend von der sozialen Interaktion zwischen Menschen schlagen sie mit dem Leitkonzept der Triangulation den Bogen zur Interaktion von Mensch und Maschine und betonen die vermittelnde Rolle von Technologien.
Zu (2) Experiment und Modell
ln vielen Wissenschaften, insbesondere in den Bio-Wissenschaften, in der Medizin und in der Psychologie ist der Computer zu einem ganz entscheidenden Erkenntnismittel geworden, kann das System der analytischen Methoden durch synthetische Methoden, insbesondere die Modellmethode, ergänzt werden. Die Mathematisierung in den Wissenschaften wird dadurch vorangetrieben. Hierzu sind die Beiträge von Werner Krause und Erdmute Sommerfeld sowie von Daniel Rapoport, Falk Nette und Philipp Grüning exzellente Beispiele.
Mit der Entwicklung einer Theorie der menschlichen Informationsverarbeitung, wie sie von Werner Krause und Erdmute Sommerfeld in Universalien des Denkens und Entropiereduktion im Denken – Über die Messung von Denkleistungen, über die Abbildung kognitiver Strukturtransformationen auf neuronale Strukturen und über einen möglichen Weg zur Bestimmung einer mentalen Grammatik – dargestellt wird, wird eine wichtige Grundlage für ein tieferen Verständnis der Mensch-Computer-Interaktion gelegt. Mit der Bestimmung von Universalien des Denkens und der Messung der Entropiereduktion im Denken mathematisch Hochbegabter wird das Verständnis des schöpferischen Denkens gegenüber formalen Schließen vertieft.
Daniel Rapoport, Falk Nette und Philipp Grüning zeigen die Bedeutung des Computers als Erkenntnismittel. In ihrem „erweiterten Abstrakt“ 3D-Bewegııngsanalyse von Immunzellen für die Diagnostik verdeutlichten sie speziell die Bedeutung der bildgebenden Verfahren für die Medizin. Sie zeigen insbesondere die fruchtbare Anwendung moderner Methoden der Künstlichen lntelligenz (großer Datenmengen und künstlicher neuronaler Netze) für die biologisch-medizinische Forschung.
Ausgangspunkt von Rainer Fischbach in Gedanken zum epistemischen Status von Modellen ist die Erkenntnis, dass Modellbildung zu den Methoden sowohl der Forschung wie auch von Prognose und Planung gehört. Mit der digitalen Datenverarbeitung steht ihr ein Instrumentarium von wachsender Flexibilität und Leistungsfähigkeit zur Verfügung das jedoch weder fehlendes Verständnis noch fehlende Daten auszugleichen vermag. Mit der Überführung tief strukturierter konzeptioneller Modelle in das lineare Medium des Computerspeichers stellen sich nicht nur methodische Probleme, sondern mit wachsender Verfeinerung der Modelle auch Anforderungen an die Ressourcen, die mit der Granularität oft stärker als linear ansteigen.
Verbunden mit den analytischen Methoden zur Erforschung des Zellstoffwechsels gewinnen synthetische Methoden speziell die mathematische Modellmethode, für das Verständnis des Ablaufs und der Regulierung der Stoffwechselvorgänge an Bedeutung, denn der Stoffwechsel hat eine große Anzahl dynamischer und selbstregulatorischer Eigenschaften die aus der noch so genauen Kenntnis der einzelnen Enzyme nicht zu verstehen sind. Gisela Jacobasch stellt – diesen Abschnitt abschließend – in Mathematische Modellierung von Stoffwechselwegen roter Blutzellen und Malariaparasiten exemplarisch ein Modell für den energetischen und oxidativen Stoffwechsel von Erythrozyten vor, das zur Berechnung von stationären und zeitabhängigen Stoffwechselzuständen verwendet wird.
Zu (3) Verfügbarkeit von Wissen und Gerät
Der Entwicklungsstand der Wissenschaft eines Landes wird wesentlich bestimmt vom Stand der Methodenentwicklung, von der Bereitstellung von Methoden und Gerat, von der Softwareentwicklung und Computertechnik.
Er wird wesentlich bestimmt von der Befriedigung der Anforderungen an einen modernen Wissenschaftlerarbeitsplatz. Dieses Element in der Struktur der Forschungssituation Verfügbarkeit von Wissen und Gerät – wird insbesondere mit den Beiträgen von Hansjürgen Garstka, Horst Junker und Dirk Hagen behandelt.
Hans-Jürgen Garstka geht in Verfügbarkeit von Wissen in der digital orientierten Wissenschaft von der elementaren Voraussetzung für wissenschaftliche Forschung aus, dem Zugriff auf vorhandenes Wissen und die darin enthaltenen Daten. Hierzu gehört zunächst der Zugang zu dem bereits wohlformulierten Wissen. Wichtiger für den Fortschritt ist allerdings der Zugriff auf Informationen, die erst der wissenschaftlichen Auswertung bedürfen. Soweit es sich dabei um personenbezogene Daten handelt, hat die Datenschutzdiskussion in den letzten Jahrzehnten wesentliche Kriterien entwickelt, die auch auf Daten ohne Personenbezug anwendbar sind.
In Auf dem Weg zu einer Nachaltigkeitsinformatik verweist Horst Junker auf die Notwendigkeit der Schaffung von betrieblichen Umwelt-lnformationssystemen, mit denen wirklich eine Nachhaltigkeitsinformatik zu realisieren ist, die alle drei Säulen der Nachhaltigkeit (Ökonomie, Ökologie und Soziales) unterstützt. Auf der Grundlage theoretischen Überlegungen Zur Entwicklung (komplexer) Zielsysteme von lnformationssystemen zum produktionsintegrierten Umweltschutz in Fertigungsunternehmen wird ein Weg aufgezeigt, wie Zielsysteme für nachhaltigkeitsorientierte lT-Applikationen erarbeitet werden können.
Wie moderne Kl-Methoden zur Wissenschaltsorganisation genutzt werden können, zeigt Dirk Hagen in Kl-basiertes Matchmaking als innovatives Steuerungsinstrument zur wissenschaftlichen Netzwerkbildung. Durch ihr Wachstum in den postmodernen und kapitalistisch orientierten Volkswirtschaften stellen alle Formen von „Events“ einschließlich wissenschaftlicher Veranstaltungen ressourcenintensive Zusammenkünfte dar. Eine verstärkt digitale Entwicklung erhöht nicht nur die Komplexität solcher Events im Hinblick auf ihre globale Bedeutung, sondern auch im Hinblick auf einen zunehmenden Wandel im Rahmen von Nachhaltigkeit. Relevant wird dabei die Antwort auf die Frage, wie nach Wissen Suchende mit dem (den) richtigen und wichtigen Experten zusammengebracht werden können. Die Zunahme von digitalen Formaten treibt dabei noch den Bedarf an innovativen technologischen Lösungen an.
Zu (4) Relevanz für Erkenntnis und Gesellschaft
Bei der Frage nach der Relevanz für Erkenntnis und Gesellschaft, dem vierten Strukturelement der Forschungssituation, geht es um die Bedeutung der gewonnen wissenschaftlichen Erkenntnisse zur die weitere wissenschaftlich-technische Forschung sowie für die Erhöhung der Lebensqualität der Menschen. Von dieser Relevanz des gewonnen Wissens für den Erkenntnisfortschritt und weiteren gesellschaftlichen Fortschritt ist die Bereitstellung entsprechender Mittel und auch die Zulassung bestimmter Forschungsprojekte, durch die verantwortlichen gesellschaftlichen Gremien, abhängig. Hier spielt die Frage nach der Verantwortung der Wissenschaftlerinnen angesichts der Ambivalenz der Forschung und ihrer Ergebnisse, der Möglichkeit ihrer dualen Nutzung eine besondere Rolle.
Zu dieser Problematik gehören die Beiträge von Stefan Ullrich, Ruth Edith Hagengruber, Peter Brödner, Harald A. Mieg, Hans-Gert Gräbe, Ronda Hauben und Wolfgang Kleinwächter.
Stefan Ullrich betont in Verantwortung und das Internet der Dinge, dass das Internet der Dinge neue Anforderungen an die Verantwortung von technisch handelnden Personen durch die umfassende Datenerhebung und -verwertung in wissenschaftlicher oder wirtschaftlicher Hinsicht stellt. Grundlage einer Ethik für technisches Handeln bieten die ethischen Grundsätze von Hans Jonas und von Joseph Weizenbaum. Im Zeitalter der „Turing-Galaxis“ – so seine Schlussfolgerung – sei die Herausbildung der Urteilskraft eine der zentralen Aufgaben der Informatik.
ln Die „dritte Wıssensdimension“. Eine Epistemologie für eine neue Wissenswelt beschäftigt sich Ruth Edith Hagengruber mit der These, dass die neuen Möglichkeiten der Informationsgewinnung nicht nur unser Wissen, sondern auch unsere Weise zu wissen, verändern. Das Subjekt-Objekt Schema wird ergänzt durch eine „dritte Wissens-Dimension“ die von den ersten beiden Elementen unabhängig ist, weil sie sich durch ihre qualitative Eigenständigkeit auszeichnet. Diese dritte Relation ergänzt und erweitert den Wissensprozess und konkurriert bzw. ergänzt das traditionelle (binäre) Erkenntnismodell. Das ist die grundsätzliche Forderung der Erweiterung der aristotelischen Ontologie und der Frage nach dem Erkenntnissubsekt im Zusammenhang mit dem Computereinsatz.
Für Peter Brödner sind in Informatik – eine Wissenschaft auf Abwegen das Produktivitätsparadoxon der Computertechnik und vergleichsweise häufige Scheitern großer Softwareprojekte ein Hinweis darauf, dass inadäquate Begriffe und Beschreibungen falsche Vorstellungen und Erwartungen über Funktionsweisen computertechnische Artefakte hervorrufen (können) Gestützt auf einen laborierten Zeichenbegriff werden fachliche Grundlagen kritisch beleuchtet im Hinblick darauf, wie die sich von klassischen Maschinen fundamental unterscheidenden Artefakte im Zusammenhang mit der Organisation von Wissensarbeit zu verstehen sind. Ferner werden die Verwendung irreführender Metaphern sowie daraus resultierende Illusionen über Nutzen und Gefahren der Computertechnik mit der Folge beträchtlicher Fehlallokation von Ressourcen analysiert.
Eine ganz andere Sicht auf Informatik liegt dem Beitrag Computerethik oder: Was tun, wenn wir irgendwann eigentlich nicht mehr den Rechner ausschalten dürfen? von Harald A. Mieg zu Grunde. Er befasst sich zuerst mit der Definitionsfrage zur Computerethik und erörtert sodann den Unterschied von Erkenntnis- und ethischen Fragen. Das Argument ist: Es gilt das ethische Prinzip, dass keinem Wesen Grundrechte verwehrt werden dürfen, solange wir nicht klar ausschließen können, dass ihm überhaupt Rechte zukommen könnten. Das könnte zu praktischen Problemen in Entwicklung und Nutzung von Computersystemen fuhren. Mit diesem sehr breiten Ansatz hat sich einer der Herausgeber des vorliegenden Bandes (Klaus Fuchs-Kittowski) in einem Addendum: Überlegungen nach der Lektüre des Beitrags von Harald A. Mieg ausführlich befasst.
Hans-Gert Gräbe hat seinen Beitrag Zur Genese einer „Cyberscience“ überschrieben. Für ihn ist das neuenglische Modewort Cyberscience Teil einer begrifflichen Inflation, um Phänomene des digitalen Wandels in Worte zu fassen. In der deutschen „Wikipedia“ wird dies mit „Scheinwelten“ und „konsensuellen Halluzinationen“ konnotiert. Im Beitrag werden diese neumodischen Begrifflichkeiten kritisch hinterfragt, die Materialität jener „digitalen Phänomene“ betont, dabei an ausgeblendete Debattenmomente wie das Thema Semantic Web oder Stalders Analyse der Wurzeln einer Kultur der Digitalität erinnert, um schließlich den Bogen zur Kybemetik-Debatte der 1960er Jahre zu schlagen und dort insbesondere die Argumente zu rekapitulieren, die Georg Klaus den Konzeptualisierungen eines Karl Steinbuch entgegengehalten hat.
Ronda Hauben geht in Creating the Vision for the Internet. From the Wiener Circles to Licklider and ARPA's Information Processing Techniques Office (IPTO) den Visionen von Joseph Carl Robnett (J. C. R.) Licklider nach, die weithin als maßgeblich für die Entwicklung des Internets anerkannt werden. Er hatte es sich zur Aufgabe gemacht zu erforschen, welche Funktionen sinnvollerweise dem Menschen und welche Funktionen dem Computer zugewiesen werden sollten, denn für ihn gibt es zwischen Menschen und Computern verschiedene Arten „symbiotischer Beziehungen“, wobei sich die unterschiedlichen Funktionen beider gegenseitig ergänzen und verstärken. Licklider inspirierte und unterstützte die Schaffung einer neuen Form der Datenverarbeitung und einer neuen Form der Mensch-Computer-Gemeinschaft. Die Schaffung des Intenets und anderer erforderlicher Computerentwicklungen demonstrierten die Realisierbarkeit der von ihm geschaffenen und verbreiteten Vision.
Den Band beschließt der Beitrag Wer regiert das Internet: Kommunikationstechnologie und Informationsfreiheit zwischen Demokratie und Autokratie von Wolfgang Kleinwächter. Er zeigt, dass neue kommunikationstechnologische Entwicklungen über die Jahrhunderte immer wieder die Frage nach deren Regulierung und in diesem Zusammenhang auch die Frage von Meinungsäußerungsfreiheit aufgeworfen haben. Das Internet mit seiner dezentralen Struktur hat dabei die Durchsetzung traditioneller Regelungsmodelle neu herausgefordeit. Das vom UN-Weltgipfel zur Informationsgesellschaft 2005 sanktionierte ,,Multistakeholder-Model1“, bei dem Regierungen, Wirtschaft, Zivilgesellschaft und die technische Community in ihren jeweiligen Rollen eng auch bei der Regulierung des Internet über Ländergrenzen hinweg kooperieren, bedarf noch seiner nachhaltigen Praxistauglichkeit, auch vor dem Hintergrund, dass das Internet nicht nur neue Freiheiten, sondern auch neue Möglichkeiten zum Missbrauch dieser Freiheiten geschaffen hat.
Die in diesem Band enthaltenen Beiträge belegen, dass der Einfluss des Einsatzes der IKT in den modernen Wissenschaften durch die Bereitstellung neuer Methoden und Geräte (Erkenntnismittel) in vielfältiger Weise zu der sich vollziehenden wissenschaftlich-technischen Umwälzung (Transformation oder gar Revolution) beiträgt. Diese, unter den Bedingungen moderner IKT stattfindende, Wissenschaftsentwicklung fassen wir zusammen unter dem Begriff Cyberscience. Die Vorsilbe „Cyber-“ wird heute in unterschiedlichen Zusammenhängen benutzt. Damit soll unseres Erachtens zurecht darauf aufmerksam gemacht werden, dass in vielen der heutigen Entwicklungen, so auch speziell in der Entwicklung des Computers und der Computernetze (siehe etwa den Beitrag von Ronda Hauben), kybernetisches Gedankengut steckt. Wenn hier jedoch diese Vorsilbe in Verbindung mit „Science“ verwendet wird, dann nicht, wie fälschlicher Weise angenommen werden könnte, um eine neue Allgemeinwissenschaft zu begründen, sondern um diese revolutionäre Entwicklung der Wissenschaft im Zeitalter des Internets „auf den Begriff zu bringen“, wie Georg Wilhelm Friedrich Hegel sagen würde.
Die Tagung belegte zudem die Einsicht, dass die dargestellte Wissenschaftsentwicklung durch die Nutzung der Potenzen des Computers, der IKT generell, nicht vom Himmel gefallen, sondern zumeist durch großes Engagement der Beteiligten, auch unter heftigen paradigmatischen Auseinandersetzungen, schwer errungen worden ist. Dies bringt u. a. Peter Mertens in seinem Aufsatz in der Festschrift zum 85. Geburtstag des Pioniers der Wirtschaftsinformatik Lutz J. Heinrich deutlich zum Ausdruck: Hier schreibt der andere Pionier in dieser Disziplin, dass sie zu Beginn eine „einsame“ Gruppe waren (Mertens 2021). Die Potenz des Computers für die Wirtschaft war kaum erkannt worden, und vor allem nicht die Notwendigkeit der Lehre auf diesem Gebiet. Wenn wir heute von einer „Design Science zur soziotechnischen Informationssystem- und Arbeitsgestaltung“ sprechen, dann zeigt sich die gewaltige Entwicklung, die sich in Wissenschaft und Praxis vollzogen hat. Es heißt in dem Aufsatz von Mertens nicht, man seine eine „kleine“, sondern eine „einsame“ Gruppe gewesen. Es' ist heute kaum noch vorstellbar, dass die Bedeutung des Computers für die Entwicklung von Forschung und Lehre in den Wissenschaften und insbesondere für deren am Menschen orientierten Einsatz in dieser grotesken Weise unterschätzt wurde.
Zu (I) Problemfeld und Methodengefüge der Forschungssituation
In diesem Abschnitt fassen wir die Beiträge von Werner Zorn, Christiane Floyd, Christian Stary und Klaus Fuchs-Kittowski, Klaus Kornwachs sowie Nadine Schumann und Yaoli Du zusammen.
Bei der Forschung im Zeitalter des Internets steht die Forschung zur Entwicklung des Internets selbst im Vordergrund, wie dies durch den Beitrag Internet: Von AUP – Acceptable Use Policy – zu LoG – Limits of Growth – ??? von Werner Zorn im Zusammenhang mit den Kämpfen um die Normung in exzellenter Weise dargestellt wird. AUP bezeichnet den Wohlverhaltens-Kodex innerhalb von Gemeinschaftseinrichtungen, zu welchem die Teilnehmer mit der Zulassungsberechtigung verpflichtet werden. Grund für AUPs sind Schwachstellen in Systemen, welche technisch ansonsten nur mit großem Aufwand oder gar nicht beseitigt werden könnten.
Mit dem rasanten quantitativen und vor allem auch qualitativen Wachstum des Internet nahm die Verletzlichkeit zu und damit auch die Frage von grenzwertigem Einsatz – charakterisiert durch den Begriff Limits of Growth, ergänzt um Limits of Trust. Mit der Untersuchung der genannten Elemente unter dem Einfluss der modernen IKT ist die Methodenentwicklung in den Wissenschaften, unser Verständnis von wissenschaftlichem Wissen grundsätzlich zu behandeln, denn die Entwicklung und Nutzung der IKT als Erkenntnismittel beeinflusst wesentlich das ganze Ensemble wissenschaftlicher Methoden und damit die Art und Weise der Gewinnung wissenschaftlichen Wissens.
Darauf baut Christiane Floyd in Wissensprozesse in der Cyberscience auf, indem sie Veränderungen in der wissenschaftlichen Forschungs- und Entwicklungsarbeit in der sogenannten Cyberscience erörtert. Diese werden durch mehrere Faktoren ausgelöst: durch die Schwerpunktverlagerung von der Tätigkeit Einzelner zur Kooperation in Wissensprojekten, durch neue Formen der Kommunikation, Erkenntnisfindung und Zusammenarbeit im Zuge der Verwendung von Internettechnologien und Künstlicher Intelligenz, durch die Globalisierung, bei der wissenschaftliche Problemstellungen weltweit verteilt oder vernetzt bearbeitet werden, und durch das Zusammentreffen tief greifender Differenzen aufgrund der persönlichen, organisatorischen, disziplinären und kulturellen Perspektiven der Beteiligten. Auch der Beitrag Zur Methodologie sozio-technischer Informationssystem- und Arbeitsgestaltung von Christian Stary und Klaus Fuchs-Kittowski zur soziotechnischen Informationssystemgestaltung und deren philosophisch-erkenntnistheoretischen Grundlagen ordnet sich hier ein: Es geht um Konstrukte der Design Science und damit verbundener Vorgehensweisen zur Erschließung von Anforderungen an praxisorientierte Lösungen in organisationalem Kontext und darauf abgestimmter Zyklen humanzentrierter Technologiegestaltung. Es gilt, den naiven Realismus sowie jede Form des Antirealismus zu überwinden, denn ohne einen bewusst vorgenommenen Realitätsbezug ist keine sicher funktionierende Software, kein menschengerechter Einsatz der IKT zu gewährleisten.
ln seinem Beitrag Zur Systemtheorie des Lesens und Schreibens – Skizze einer Theorie der Pragmatischen Information entwickelt Klaus Kornwachs seine Theorie der Pragmatischen Information weiter. Der Begriff der Pragmatischen Information entstand aus der operationalen Sichtweise, wonach Information, die rezipiert wird, eine Wirkung hat. Diese „Wirkung“ ist ganz allgemein zu verstehen und hängt davon ab, welche Systembeschreibung man wählt. Im Kontext physikalischer Systeme kann man den Begriff der pragmatische Information dazu benutzen, die Wirkung auf ein empfangendes System zu modellieren. Die physikalisch mögliche Beobachtung der Veränderungen von Strukturen und/oder Verhalten ist wiederum als Information (output) beschreibbar und kann als aufgezeichnete Beobachtung als Schreiben interpretiert werden. Pragmatische Information wird als ein verallgemeinertes Produkt aus Erstmaligkeit und Bestätigung konzipiert, die als perspektivische Größe nur systemspezifisch bestimmt werden kann.
Nadine Schumann und Yaoli Du thematisieren in ihrem Beitrag Pragmatische Information in Interaktion den Informationsbegriff in der Interaktion von Mensch und Maschine. Sie stellen ein pragmatisch interaktives Konzept von Information vor, welches sich maßgeblich an der Benutzbarkeit von Technik und damit an den Handlungsmöglichkeiten der Nutzenden orientiert. Ausgehend von der sozialen Interaktion zwischen Menschen schlagen sie mit dem Leitkonzept der Triangulation den Bogen zur Interaktion von Mensch und Maschine und betonen die vermittelnde Rolle von Technologien.
Zu (2) Experiment und Modell
ln vielen Wissenschaften, insbesondere in den Bio-Wissenschaften, in der Medizin und in der Psychologie ist der Computer zu einem ganz entscheidenden Erkenntnismittel geworden, kann das System der analytischen Methoden durch synthetische Methoden, insbesondere die Modellmethode, ergänzt werden. Die Mathematisierung in den Wissenschaften wird dadurch vorangetrieben. Hierzu sind die Beiträge von Werner Krause und Erdmute Sommerfeld sowie von Daniel Rapoport, Falk Nette und Philipp Grüning exzellente Beispiele.
Mit der Entwicklung einer Theorie der menschlichen Informationsverarbeitung, wie sie von Werner Krause und Erdmute Sommerfeld in Universalien des Denkens und Entropiereduktion im Denken – Über die Messung von Denkleistungen, über die Abbildung kognitiver Strukturtransformationen auf neuronale Strukturen und über einen möglichen Weg zur Bestimmung einer mentalen Grammatik – dargestellt wird, wird eine wichtige Grundlage für ein tieferen Verständnis der Mensch-Computer-Interaktion gelegt. Mit der Bestimmung von Universalien des Denkens und der Messung der Entropiereduktion im Denken mathematisch Hochbegabter wird das Verständnis des schöpferischen Denkens gegenüber formalen Schließen vertieft.
Daniel Rapoport, Falk Nette und Philipp Grüning zeigen die Bedeutung des Computers als Erkenntnismittel. In ihrem „erweiterten Abstrakt“ 3D-Bewegııngsanalyse von Immunzellen für die Diagnostik verdeutlichten sie speziell die Bedeutung der bildgebenden Verfahren für die Medizin. Sie zeigen insbesondere die fruchtbare Anwendung moderner Methoden der Künstlichen lntelligenz (großer Datenmengen und künstlicher neuronaler Netze) für die biologisch-medizinische Forschung.
Ausgangspunkt von Rainer Fischbach in Gedanken zum epistemischen Status von Modellen ist die Erkenntnis, dass Modellbildung zu den Methoden sowohl der Forschung wie auch von Prognose und Planung gehört. Mit der digitalen Datenverarbeitung steht ihr ein Instrumentarium von wachsender Flexibilität und Leistungsfähigkeit zur Verfügung das jedoch weder fehlendes Verständnis noch fehlende Daten auszugleichen vermag. Mit der Überführung tief strukturierter konzeptioneller Modelle in das lineare Medium des Computerspeichers stellen sich nicht nur methodische Probleme, sondern mit wachsender Verfeinerung der Modelle auch Anforderungen an die Ressourcen, die mit der Granularität oft stärker als linear ansteigen.
Verbunden mit den analytischen Methoden zur Erforschung des Zellstoffwechsels gewinnen synthetische Methoden speziell die mathematische Modellmethode, für das Verständnis des Ablaufs und der Regulierung der Stoffwechselvorgänge an Bedeutung, denn der Stoffwechsel hat eine große Anzahl dynamischer und selbstregulatorischer Eigenschaften die aus der noch so genauen Kenntnis der einzelnen Enzyme nicht zu verstehen sind. Gisela Jacobasch stellt – diesen Abschnitt abschließend – in Mathematische Modellierung von Stoffwechselwegen roter Blutzellen und Malariaparasiten exemplarisch ein Modell für den energetischen und oxidativen Stoffwechsel von Erythrozyten vor, das zur Berechnung von stationären und zeitabhängigen Stoffwechselzuständen verwendet wird.
Zu (3) Verfügbarkeit von Wissen und Gerät
Der Entwicklungsstand der Wissenschaft eines Landes wird wesentlich bestimmt vom Stand der Methodenentwicklung, von der Bereitstellung von Methoden und Gerat, von der Softwareentwicklung und Computertechnik.
Er wird wesentlich bestimmt von der Befriedigung der Anforderungen an einen modernen Wissenschaftlerarbeitsplatz. Dieses Element in der Struktur der Forschungssituation Verfügbarkeit von Wissen und Gerät – wird insbesondere mit den Beiträgen von Hansjürgen Garstka, Horst Junker und Dirk Hagen behandelt.
Hans-Jürgen Garstka geht in Verfügbarkeit von Wissen in der digital orientierten Wissenschaft von der elementaren Voraussetzung für wissenschaftliche Forschung aus, dem Zugriff auf vorhandenes Wissen und die darin enthaltenen Daten. Hierzu gehört zunächst der Zugang zu dem bereits wohlformulierten Wissen. Wichtiger für den Fortschritt ist allerdings der Zugriff auf Informationen, die erst der wissenschaftlichen Auswertung bedürfen. Soweit es sich dabei um personenbezogene Daten handelt, hat die Datenschutzdiskussion in den letzten Jahrzehnten wesentliche Kriterien entwickelt, die auch auf Daten ohne Personenbezug anwendbar sind.
In Auf dem Weg zu einer Nachaltigkeitsinformatik verweist Horst Junker auf die Notwendigkeit der Schaffung von betrieblichen Umwelt-lnformationssystemen, mit denen wirklich eine Nachhaltigkeitsinformatik zu realisieren ist, die alle drei Säulen der Nachhaltigkeit (Ökonomie, Ökologie und Soziales) unterstützt. Auf der Grundlage theoretischen Überlegungen Zur Entwicklung (komplexer) Zielsysteme von lnformationssystemen zum produktionsintegrierten Umweltschutz in Fertigungsunternehmen wird ein Weg aufgezeigt, wie Zielsysteme für nachhaltigkeitsorientierte lT-Applikationen erarbeitet werden können.
Wie moderne Kl-Methoden zur Wissenschaltsorganisation genutzt werden können, zeigt Dirk Hagen in Kl-basiertes Matchmaking als innovatives Steuerungsinstrument zur wissenschaftlichen Netzwerkbildung. Durch ihr Wachstum in den postmodernen und kapitalistisch orientierten Volkswirtschaften stellen alle Formen von „Events“ einschließlich wissenschaftlicher Veranstaltungen ressourcenintensive Zusammenkünfte dar. Eine verstärkt digitale Entwicklung erhöht nicht nur die Komplexität solcher Events im Hinblick auf ihre globale Bedeutung, sondern auch im Hinblick auf einen zunehmenden Wandel im Rahmen von Nachhaltigkeit. Relevant wird dabei die Antwort auf die Frage, wie nach Wissen Suchende mit dem (den) richtigen und wichtigen Experten zusammengebracht werden können. Die Zunahme von digitalen Formaten treibt dabei noch den Bedarf an innovativen technologischen Lösungen an.
Zu (4) Relevanz für Erkenntnis und Gesellschaft
Bei der Frage nach der Relevanz für Erkenntnis und Gesellschaft, dem vierten Strukturelement der Forschungssituation, geht es um die Bedeutung der gewonnen wissenschaftlichen Erkenntnisse zur die weitere wissenschaftlich-technische Forschung sowie für die Erhöhung der Lebensqualität der Menschen. Von dieser Relevanz des gewonnen Wissens für den Erkenntnisfortschritt und weiteren gesellschaftlichen Fortschritt ist die Bereitstellung entsprechender Mittel und auch die Zulassung bestimmter Forschungsprojekte, durch die verantwortlichen gesellschaftlichen Gremien, abhängig. Hier spielt die Frage nach der Verantwortung der Wissenschaftlerinnen angesichts der Ambivalenz der Forschung und ihrer Ergebnisse, der Möglichkeit ihrer dualen Nutzung eine besondere Rolle.
Zu dieser Problematik gehören die Beiträge von Stefan Ullrich, Ruth Edith Hagengruber, Peter Brödner, Harald A. Mieg, Hans-Gert Gräbe, Ronda Hauben und Wolfgang Kleinwächter.
Stefan Ullrich betont in Verantwortung und das Internet der Dinge, dass das Internet der Dinge neue Anforderungen an die Verantwortung von technisch handelnden Personen durch die umfassende Datenerhebung und -verwertung in wissenschaftlicher oder wirtschaftlicher Hinsicht stellt. Grundlage einer Ethik für technisches Handeln bieten die ethischen Grundsätze von Hans Jonas und von Joseph Weizenbaum. Im Zeitalter der „Turing-Galaxis“ – so seine Schlussfolgerung – sei die Herausbildung der Urteilskraft eine der zentralen Aufgaben der Informatik.
ln Die „dritte Wıssensdimension“. Eine Epistemologie für eine neue Wissenswelt beschäftigt sich Ruth Edith Hagengruber mit der These, dass die neuen Möglichkeiten der Informationsgewinnung nicht nur unser Wissen, sondern auch unsere Weise zu wissen, verändern. Das Subjekt-Objekt Schema wird ergänzt durch eine „dritte Wissens-Dimension“ die von den ersten beiden Elementen unabhängig ist, weil sie sich durch ihre qualitative Eigenständigkeit auszeichnet. Diese dritte Relation ergänzt und erweitert den Wissensprozess und konkurriert bzw. ergänzt das traditionelle (binäre) Erkenntnismodell. Das ist die grundsätzliche Forderung der Erweiterung der aristotelischen Ontologie und der Frage nach dem Erkenntnissubsekt im Zusammenhang mit dem Computereinsatz.
Für Peter Brödner sind in Informatik – eine Wissenschaft auf Abwegen das Produktivitätsparadoxon der Computertechnik und vergleichsweise häufige Scheitern großer Softwareprojekte ein Hinweis darauf, dass inadäquate Begriffe und Beschreibungen falsche Vorstellungen und Erwartungen über Funktionsweisen computertechnische Artefakte hervorrufen (können) Gestützt auf einen laborierten Zeichenbegriff werden fachliche Grundlagen kritisch beleuchtet im Hinblick darauf, wie die sich von klassischen Maschinen fundamental unterscheidenden Artefakte im Zusammenhang mit der Organisation von Wissensarbeit zu verstehen sind. Ferner werden die Verwendung irreführender Metaphern sowie daraus resultierende Illusionen über Nutzen und Gefahren der Computertechnik mit der Folge beträchtlicher Fehlallokation von Ressourcen analysiert.
Eine ganz andere Sicht auf Informatik liegt dem Beitrag Computerethik oder: Was tun, wenn wir irgendwann eigentlich nicht mehr den Rechner ausschalten dürfen? von Harald A. Mieg zu Grunde. Er befasst sich zuerst mit der Definitionsfrage zur Computerethik und erörtert sodann den Unterschied von Erkenntnis- und ethischen Fragen. Das Argument ist: Es gilt das ethische Prinzip, dass keinem Wesen Grundrechte verwehrt werden dürfen, solange wir nicht klar ausschließen können, dass ihm überhaupt Rechte zukommen könnten. Das könnte zu praktischen Problemen in Entwicklung und Nutzung von Computersystemen fuhren. Mit diesem sehr breiten Ansatz hat sich einer der Herausgeber des vorliegenden Bandes (Klaus Fuchs-Kittowski) in einem Addendum: Überlegungen nach der Lektüre des Beitrags von Harald A. Mieg ausführlich befasst.
Hans-Gert Gräbe hat seinen Beitrag Zur Genese einer „Cyberscience“ überschrieben. Für ihn ist das neuenglische Modewort Cyberscience Teil einer begrifflichen Inflation, um Phänomene des digitalen Wandels in Worte zu fassen. In der deutschen „Wikipedia“ wird dies mit „Scheinwelten“ und „konsensuellen Halluzinationen“ konnotiert. Im Beitrag werden diese neumodischen Begrifflichkeiten kritisch hinterfragt, die Materialität jener „digitalen Phänomene“ betont, dabei an ausgeblendete Debattenmomente wie das Thema Semantic Web oder Stalders Analyse der Wurzeln einer Kultur der Digitalität erinnert, um schließlich den Bogen zur Kybemetik-Debatte der 1960er Jahre zu schlagen und dort insbesondere die Argumente zu rekapitulieren, die Georg Klaus den Konzeptualisierungen eines Karl Steinbuch entgegengehalten hat.
Ronda Hauben geht in Creating the Vision for the Internet. From the Wiener Circles to Licklider and ARPA's Information Processing Techniques Office (IPTO) den Visionen von Joseph Carl Robnett (J. C. R.) Licklider nach, die weithin als maßgeblich für die Entwicklung des Internets anerkannt werden. Er hatte es sich zur Aufgabe gemacht zu erforschen, welche Funktionen sinnvollerweise dem Menschen und welche Funktionen dem Computer zugewiesen werden sollten, denn für ihn gibt es zwischen Menschen und Computern verschiedene Arten „symbiotischer Beziehungen“, wobei sich die unterschiedlichen Funktionen beider gegenseitig ergänzen und verstärken. Licklider inspirierte und unterstützte die Schaffung einer neuen Form der Datenverarbeitung und einer neuen Form der Mensch-Computer-Gemeinschaft. Die Schaffung des Intenets und anderer erforderlicher Computerentwicklungen demonstrierten die Realisierbarkeit der von ihm geschaffenen und verbreiteten Vision.
Den Band beschließt der Beitrag Wer regiert das Internet: Kommunikationstechnologie und Informationsfreiheit zwischen Demokratie und Autokratie von Wolfgang Kleinwächter. Er zeigt, dass neue kommunikationstechnologische Entwicklungen über die Jahrhunderte immer wieder die Frage nach deren Regulierung und in diesem Zusammenhang auch die Frage von Meinungsäußerungsfreiheit aufgeworfen haben. Das Internet mit seiner dezentralen Struktur hat dabei die Durchsetzung traditioneller Regelungsmodelle neu herausgefordeit. Das vom UN-Weltgipfel zur Informationsgesellschaft 2005 sanktionierte ,,Multistakeholder-Model1“, bei dem Regierungen, Wirtschaft, Zivilgesellschaft und die technische Community in ihren jeweiligen Rollen eng auch bei der Regulierung des Internet über Ländergrenzen hinweg kooperieren, bedarf noch seiner nachhaltigen Praxistauglichkeit, auch vor dem Hintergrund, dass das Internet nicht nur neue Freiheiten, sondern auch neue Möglichkeiten zum Missbrauch dieser Freiheiten geschaffen hat.
Die in diesem Band enthaltenen Beiträge belegen, dass der Einfluss des Einsatzes der IKT in den modernen Wissenschaften durch die Bereitstellung neuer Methoden und Geräte (Erkenntnismittel) in vielfältiger Weise zu der sich vollziehenden wissenschaftlich-technischen Umwälzung (Transformation oder gar Revolution) beiträgt. Diese, unter den Bedingungen moderner IKT stattfindende, Wissenschaftsentwicklung fassen wir zusammen unter dem Begriff Cyberscience. Die Vorsilbe „Cyber-“ wird heute in unterschiedlichen Zusammenhängen benutzt. Damit soll unseres Erachtens zurecht darauf aufmerksam gemacht werden, dass in vielen der heutigen Entwicklungen, so auch speziell in der Entwicklung des Computers und der Computernetze (siehe etwa den Beitrag von Ronda Hauben), kybernetisches Gedankengut steckt. Wenn hier jedoch diese Vorsilbe in Verbindung mit „Science“ verwendet wird, dann nicht, wie fälschlicher Weise angenommen werden könnte, um eine neue Allgemeinwissenschaft zu begründen, sondern um diese revolutionäre Entwicklung der Wissenschaft im Zeitalter des Internets „auf den Begriff zu bringen“, wie Georg Wilhelm Friedrich Hegel sagen würde.
Die Tagung belegte zudem die Einsicht, dass die dargestellte Wissenschaftsentwicklung durch die Nutzung der Potenzen des Computers, der IKT generell, nicht vom Himmel gefallen, sondern zumeist durch großes Engagement der Beteiligten, auch unter heftigen paradigmatischen Auseinandersetzungen, schwer errungen worden ist. Dies bringt u. a. Peter Mertens in seinem Aufsatz in der Festschrift zum 85. Geburtstag des Pioniers der Wirtschaftsinformatik Lutz J. Heinrich deutlich zum Ausdruck: Hier schreibt der andere Pionier in dieser Disziplin, dass sie zu Beginn eine „einsame“ Gruppe waren (Mertens 2021). Die Potenz des Computers für die Wirtschaft war kaum erkannt worden, und vor allem nicht die Notwendigkeit der Lehre auf diesem Gebiet. Wenn wir heute von einer „Design Science zur soziotechnischen Informationssystem- und Arbeitsgestaltung“ sprechen, dann zeigt sich die gewaltige Entwicklung, die sich in Wissenschaft und Praxis vollzogen hat. Es heißt in dem Aufsatz von Mertens nicht, man seine eine „kleine“, sondern eine „einsame“ Gruppe gewesen. Es' ist heute kaum noch vorstellbar, dass die Bedeutung des Computers für die Entwicklung von Forschung und Lehre in den Wissenschaften und insbesondere für deren am Menschen orientierten Einsatz in dieser grotesken Weise unterschätzt wurde.
Meinungen aus der Lesejury
Es sind noch keine Einträge vorhanden.