Neue Konturen von Produktion und Arbeit. Interdisziplinäres Zentrum für IT-basierte qualitative arbeitssoziologische Forschung (eLabour)
Das vom BMBF geförderte Projekt eLabour führt qualitative Forschung im Bereich Sozialwissenschaften durch. Hierzu werden
bereits erhobene Studiendaten aus verschiedenen Sozialwissenschaftlichen Forschungseinrichtungen unter neuen
Forschungsfragstellungen ausgewertet. Da es sich um Forschungsdaten aus über 40 Jahren handelt, liegen diese in den
unterschiedlichsten Medien vor: als Dokumente in Papierform, als Toninterviews und in zahlreichen digitalen
Schriftformaten. Im Projekt eLabour wird nun eine zentrale digitale Plattform zur Erfassung und zur Ermöglichung des
vereinfachten Zugriffs auf diese Forschungsdaten in digitalisierter Form aufgebaut. Diese Plattform soll - unter
Gewährleistung des Datenschutzes - kollaborative Zusammenarbeit mit den Forschungsunterlagen in einer virtuellen
Forschungsinfrast
lies mehr →Im Rahmen des
Online-Projektes der Landeskonferenz Niedersächsischer Hochschulfrauenbeauftragter (LNHF) wurde in Zusammenarbeit mit der GWDG ein elektronisches Archiv auf der Basis einer Oracle-Datenbank entwickelt. Das Archiv enthält sowohl allgemeine Dokumente zur Frauenförderung als auch Unterlagen zur aktuellen Arbeit der LNHF. Ein Teil der Dokumente ist öffentlich zugänglich, ein anderer Teil ist im internen Bereich vor Zugriff von außen gesichert, er kann nur von den Frauenbeauftragten und den Mitarbeiterinnen der Frauenbüros genutzt werden.
lies mehr →EGI Engage will Forschern ein breites Spektrum an Möglichkeiten bieten (z.B. durch verbesserte Cloud- und Datendienste). Hierzu soll die Vernetzung mit großen Forschungsinstrastrkturen, dem Long Tail der Wissenschaft, der Instustrie und KMU erfolgen. Der größten Stellenwert wird einem Netzwerk von acht Kompetenzzentren zukommen, in denen nationale GRID-Initiativen, Nutzergemeinschaften und technologiedienstleister zusammenarbeiten, um hochmoderne Dienste zu integrieren. Die Interoperabilität soll gestärkt und nutzerspezifische Dienstleistungen sollen evaluiert und angeboten werden. Zur Integration des “Long Tails” sollen vereinfachte Zugangsmodalitäten und Dienste etabliert werden, um bestehende Barrieren abzubauen.
lies mehr →Im großen europäischen Forschungsrojekt EURExpress wurden an verschiedenen Standorten in Europa große Mengen von Schnitten durch Mausembryonen erzeugt und die Aktivität von Tausenden von Genen in diesen Schnitten durch molekularbiologische Methoden sichtbar gemacht. Als Ergebnis entstanden mit Hilfe von automatisierten Mikroskopieverfahren große Mengen hochauflösender digitaler Bilddaten, die zur GWDG transferiert, dort weiterverarbeitet und gespeichert wurden. Wichtigstes Ziel des Projekts EURExpress war die Erstellung eines Internet-basierten Expressionsatlasses für das Genom der Maus, d. h. eine Kartierung der Aktivität der einzelnen Bestandteile des Erbguts.
lies mehr →The worldwide forest industry is in an upheaval state due to climate change. The project FORESTCARE (–Single-tree satellite-based forest ecosystem monitoring with autoadaptive hyperdimensions – Geodata analysis) aims to monitor regional forest growth on a single-tree level, recommend and evaluate alternative adapted species for afforestation measures, and coordinate preventive forest protection measures at an early stage.
lies mehr →Unter dem Dach von GenePaint steht Forschern die weltweit erste umfassende Übersicht über die räumliche und zeitliche Aktivität aller bekannten Gene ( Genexpression) eines ganzen Säugerorganismus zu einem bestimmten Zeitpunkt seiner Entwicklung am Beispiel des Mäusegenoms zur Verfügung. Mittels dieser Daten ist es zum Beispiel möglich, Kandidatengene für genetische und komplexe Erkrankungen zu ermitteln. Ein Fernziel des Projekts ist der Aufbau eines europäischen Online-Dienstes „European Database of Gene Expression“.
lies mehr →Das Projekt GFBio ist der Zusammenschluss der Hauptakteure aus den Bereichen der Archivierung und Bereitstellung umweltbezogener biologischer Daten in Deutschland. Es läuft seit 2015 in der zweiten Förderphase. Umweltforschung und Biologie stehen vor großen Herausforderungen, die das Ökosystem und die Klimadynamik unseres Planeten betreffen. Um der Größenordnung und Komplexität der zu lösenden Probleme gerecht zu werden, muss vor allem im Bereich des Wissensaustausches stärker zusammengearbeitet werden. Allerdings sind heute biologische Informationen weit verstreut und schwer auffindbar, was ein abgestimmtes Vorgehen zur Verbesserung des Zugangs zu wissenschaftlichen Daten und deren Bewahrung erfordert.
lies mehr →Die DFG hatte im Jahre 2002 zur Stärkung der Informationsstrukturen an deutschen Hochschulen und Forschungseinrichtungen einen zweiphasigen Wettbewerb ausgeschrieben. Das vorgelegte Konzept sieht vor, die seit über 30 Jahren gewachsenen getrennten IT-Strukturen unter Einbeziehung der Max-Planck-Gesellschaft so zusammenzufassen, dass ein einheitliches, transparentes Leistungsangebot für Wissenschaftler*innen, Lehrende, Studierende, Verwaltung und weitere Abnehmer*innen (z. B. in der Krankenversorgung) entsteht.
lies mehr →GRAcE ist ein Göttinger Verbundprojekt unter dem Dach des BMBF-Förderprogramms “Erforschung des Managements von Forschungsdaten in ihrem Lebenszyklus an Hochschulen und außeruniversitären Forschungseinrichtungen”. Das Programm dient der systematischen Erfassung von Modellen und Managementoptionen für ein effizientes, nachhaltiges Forschungsdatenmanagement.
lies mehr →Das Projekt “Grid-Computing und Data-Grid” soll die Grid-Technologie bei der GWDG etablieren.
lies mehr →Zentrale Aufgaben des Humanities Data Centre sind die langfristige Sicherung von Forschungsdaten (z. B. kritische Editionen, Multimedia-Objekte oder 3D-Modelle) und, sofern rechtlich möglich, deren Bereitstellung zur Nachnutzung sein. Wichtige Projekte im Bereich Geisteswissenschaften, wie DARIAH und TextGrid, an denen die GWDG ebenfalls beteiligt ist, verwenden in ihren Forschungsumgebungen bereits erhebliche Datenbestände, für die ein gemeinsamer Forschungsdaten-Service benötigt wird. Das Humanities Data Centre ist somit eine zentrale Datenschnittstelle für virtuelle Forschungsumgebungen in den Geisteswissenschaften.
lies mehr →Verzeichnisdienste bilden die Basis für die Verwaltung von Identitäten (Benutzerkonten), Gruppen, Rechten und allgemeinen Informationsstrukturen in IT-Umgebungen. Im wissenschaftlichen Umfeld herrscht hierbei insbesondere eine hohe Fluktuation sowie Dezentralität der Identitäten vor. Innerhalb des GÖ*-Projekts werden die Identitäten der beteiligten Partner in unterschiedlichen Verzeichnissen verwaltet. Einzelne Identitäten sind hierbei teilweise bereits identisch, andere sollen abgeglichen werden, um kooperative Arbeitsstrukturen zu ermöglichen. Im Rahmen dieses Projekts werden daher Möglichkeiten für den institutionsübergreifenden Abgleich von Identitäten, zugehörigen Rechten und Strukturen modelliert und implementiert, um unternehmensübergreifende Vertrauensstellungen abzubilden.
lies mehr →Das
Instant-Grid ist eine Knoppix-basierte Live-CD mit einer vorkonfigurierten Grid-Umgebung auf Basis des Globus-Toolkit. Ein PC wird von der CD gestartet und fungiert als Frontend des Instant-Grid. Er dient außerdem als PXE-Boot-Server und erlaubt so weiteren PCs im gleichen lokalen Netzwerk den Start der Instant-Grid-Umgebung per Netzwerk-Interface. Gemeinsam mit dem Frontend bilden diese Rechner - ohne weiteres Zutun des Anwenders - ein funktionsfähiges Test-Grid. Wie beim originalen Knoppix muss dabei die bestehende Konfiguration der Rechner (abgesehen vom Einschalten der PXE-Boot-Möglichkeit) nicht verändert werden und steht nach einem Neustart sofort wieder zur Verfügung.
lies mehr →Das Verbundprojekt JOINTLY unterstützt OER-Akteure bei der Entwicklung und Verbreitung ihrer offenen Bildungsmaterialien und organisiert den Wissenstransfer und Kooperationsaktivitäten untereinander. Hierfür werden Konzepte, Inhalte und Lösungen, die in Kooperationen entwickelt wurden, fachspezifisch diskutiert und von Experten bewertet. Das Projekt fördert somit den Erwerb und die de Nutzbarmachung erprobten Wissens für die OER- oder IT-Praxis. Zum Wissenstransfer werden Webinare, „Lehrgangstage“ und Transferworkshops angeboten. Ein Fokus liegt auf Beratung durch Experten aus den Feldern Recht, Produktion, Didaktik und IT. Ferner werden in dem Projekt gemeinschaftlich OER-förderliche softwarewerkzeuge sowie Arbeits- und Vertriebsinstrumente entwickelt. Für Experten und Entscheider aus den Bereichen Bildung, Politik und Gesellschaft wird eine fachspezifische Diskussionsplattform zum Austausch über die im OERinfo-Programm entstandenen Lösungen etabliert.
lies mehr →Jupyter4NFDI ist ein Projekt zur Erstellung eines NFDI-Basisdienstes (s. auch
https://base4nfdi.de/ und
https://www.nfdi.de/), der die Nutzung der vielen an den Partnerinstitutionen und darüber hinaus existierenden JupyterHubs über einen zentralen Hub ermöglicht und somit den Zugang zur Jupyter-Technologie und zu verfügbaren Rechenressourcen einschließlich HPC, erleichtert. Darüber hinaus kann eine Vielzahl von Softwareumgebungen und notebookbasierten Werkzeugen über diese Infrastruktur zur Verfügung gestellt und besonders einfach genutzt werden, da sich die Nutzer nicht um die Installation oder Wartung kümmern müssen.
lies mehr →The goal of KISSKI is to establish an AI-servicecenter that provides everything necessary for developing and deploying AI based solutions. This includes data via prepared trainings data and pre-trained models, expertise via training, consulting and support, hardware including HPC systems and specialized hardware as well as infrastructure using Kubernetes to enable serverless, AI-as-a-Service deployments.
lies mehr →Um die Anforderungen der wissenschaftlichen Community an digitale Langzeitarchivierungsmaßnahmen zu evaluieren, wird gegenwärtig das von der
Deutschen Forschungsgemeinschaft (DFG) geförderte Projekt KoLaWiss („Kooperative Langzeitarchivierung für Wissenschaftsstandorte“) durchgeführt. Unter Projektleitung der Gesellschaft für wissenschaftliche Datenverarbeitung mbH (GWDG) führen die
Staats- und Universitätsbibliothek Göttingen (SUB), der Geschäftsbereich Informationstechnologie (G3-7 IT) und die
Medizinische Informatik (MI) der Universitätsmedizin eine 1-jährige Studie zum Thema Langzeitarchivierung von digitalen Primärdaten an Wissenschaftsstandorten durch.
lies mehr →Seit Januar 2005 ist die GWDG Kooperationspartner der Deutschen Nationalbibliothek (DNB) für das Thema Langzeitarchivierung (LZA). Die DNB hat durch das „Gesetz über die Deutsche Nationalbibliothek“ (DNBG) den Auftrag zur Sammlung, Erschließung, Verzeichnung und Archivierung von Medienwerken in körperlicher und unkörperlicher Form. Medienwerke in unkörperlicher Form sind digitale Objekte, sogenannte Netzpublikationen. Im Rahmen dieser Partnerschaft wurde die Software „koala“ von der GWDG entwickelt.
lies mehr →Das Projekt
kopal hat den Aufbau einer technischen und organisatorischen Infrastruktur zur Sicherung der Langzeitverfügbarkeit digitaler Dokumente zum Ziel. Das Archivsystem soll neben dem physischen Erhalt der Daten vor allem auch deren künftige Interpretierbarkeit gewährleisten.
lies mehr →Auch in der biomedizinischen Forschung findet Grid-Computing zunehmende Verbreitung und ist zu einem bedeutenden Fortschrittsfaktor geworden.
MediGRID ist ein Verbundprojekt von renommierten Forschungseinrichtungen aus den Bereichen Medizin, Bioinformatik und Gesundheitswissenschaften unter weiterer Einbeziehung zahlreicher assoziierter Partner aus Industrie sowie Versorgungs- und Forschungseinrichtungen. Damit wird das Projekt auf eine breite Basis gestellt. MediGRID soll anhand ausgewählter Anwendungsbeispiele zeigen, ob und wie in welchen Fällen Grid-Technologie in der biomedizinischen Forschung nutzbringend eingesetzt werden kann.
lies mehr →Our goal in this project is to remove the separation of main memory and non-volatile memory and bring them together in a distributed computing system under a unified interface so that different classes of storage media can be used flexibly in HPC workflows.
lies mehr →Das europäisch-israelische Konsortialprojekt MIKELANGELO zielt darauf ab, die Architektur virtueller Infrastrukturen im Bereich Cloud Computing grundlegend zu revolutionieren. Das Forscherteam beschäftigt sich dabei mit der gesamten Spannweite der Softwareentwicklung für moderne Rechenarchitekturen für eine Vielzahl von Anwendungen.
lies mehr →MINE is a service which offers access to various text resources and their extracted knowledge. Additionally, it also offers a workspace for users to run their analytics workflows. The service is currently under development and is a joint project between the Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) and the GWDG.
lies mehr →Die “Radionomik” ist heute ein häufig genutzter Ansatz zur Extraktion von Bildmerkmalen, die dann mit klinisch relevanten Parametern korreliert werden. Da MR-Bilder in einem so genannten k-Raum aufgenommen werden, müssen sie zunächst rekonstruiert werden, bevor diese Ansätze genutzt werden können. In einem neuartigen Ansatz innerhalb dieses Projekts sollen neuronale Netze in die Rekonstruktionsprozesse eingeführt werden und relevante Biomarker direkt aus MR-Signalen extrahieren, um relevante Informationen aus den Rohdaten und nicht nur aus den verarbeiteten Daten zu lernen.
lies mehr →Das Projekt NEPHELE dient der Entwicklung einer dynamischen optischen Netzwerk-Infrastruktur zur Effizienzsteigerung von Rechenzentren und damit auch der Kostenreduzierung und der Energieeinsparung. Durch die Überwindung derzeitiger Architekturbegrenzungen wird damit eine bessere Skalierbarkeit in Cloud-Infrastrukturen ermöglicht.
lies mehr →Im Rahmen dieses interdisziplinären Projekts aus den Bereichen Informatik, Telekommunikation, wissenschaftliches Rechnen und Scheduling entwickeln Nachwuchswissenschaftler innovative, effiziente Methoden im Bereich „Cloud-Computing“ zur Senkung des Energieverbrauchs und damit der Kosten von Rechenzentren. Erarbeitet werden sollen Modelle zur Bündelung von Rechenzentren in einem kleinen Verbund von „Cloud-Zentren“ zum Beispiel durch Service-Migration. Auch die Nutzung erneuerbarer Energien in diesen Cloud-Zentren steht auf der Agenda.
lies mehr →Die datengetriebene Wissenschaft erfordert nicht nur schnelle Speichersysteme, sondern auch Strategien zur effizienten Verwaltung dieser Daten in und zwischen Rechenzentren. Big-Data-Tools können den Bedarf an der Suche nach Daten auf der Grundlage benutzerspezifischer Metadaten befriedigen. Es gibt jedoch einen ganzen Zoo von Tools, und kein einziges Tool kann alle Anforderungen erfüllen, die ein HPC-System in einem Rechenzentrum benötigt. Data Lakes zum Beispiel sind ein sinnvoller Ansatz, aber es gibt auch alternative Konzepte und Tools, die in Betracht gezogen werden müssen. Eine einheitliche und konsistente Sicht auf die Millionen von Daten auf HPC-Systemen und deren effiziente Verarbeitung ist erforderlich, um die Verwertbarkeit zu maximieren und segmentierte Datensilos zwischen Nutzern oder Projekten zu verhindern.
lies mehr →Wir sehen Container-Umgebungen als wertvolles Tool, zum einen um Usern zu erlauben, die benötigten Softwareumgebungen in Eigenregie zu erstellen und weitgehend von der Systemumgebung zu entkoppeln, zum anderen als Basis für eine einfache Migration zwischen den NHR-Zentren. Ziel des Projektes in der ersten Phase ist daher die Entwicklung portabler Container-Beschreibungen, die Usern als Basis für eigene Container dienen können und an mehreren Zentren nutzbar sind. Darauf aufbauend bietet sich die Einrichtung eines gemeinsamen Repositoriums für geprüfte Beschreibungen (bzw. fertige Container) an. Die Entwicklung von Cluster-on-Demand-Ansätzen für HPDA mit Kubernetes, der am weitesten verbreiteten Lösung für die Container-Orchestrierung (Bereitstellung, Skalierbarkeit, Überwachung) über mehrere Nodes, ist das Ziel einer 2. Phase.
lies mehr →Mit den Verzeichnissen der im deutschen Sprachraum erschienenen Drucke des 16.–18. Jahrhunderts (VD 16, VD 17, VD 18) wird eine retrospektive Nationalbibliografie des frühneuzeitlichen Schriftguts aus dem deutschsprachigen Raum erstellt. Um der Forschung die Zugänglichkeit zu diesen Texten zu erleichtern, wurden und werden große, konzertierte Anstrengungen unternommen, Volldigitalisate oder Schlüsselseiten zu den einzelnen verzeichneten Titeln digital bereitzustellen.
lies mehr →Die Entwicklung innovativer neuer Produkte ist heutzutage in vielen Bereichen ohne Computer-Simulationen nicht mehr möglich. Das liegt zum einen an ständig mächtiger, aber eben auch komplexer werdenden Technologien. Zum anderen steigen die Anforderungen an die Gewährleistung der Produktsicherheit in allen Stadien der Entwicklung. Die benötigte Computerleistung überschreitet oft die Grenzen dessen, was insbesondere mittelständische Unternehmen ihren Ingenieuren bereitstellen können. Im OptiNum-Grid-Projekt haben sich daher, koordiniert durch die GWDG, Forschungseinrichtungen und Unternehmen mit Ressourcen-Providern zusammengeschlossen, um numerische Simulationen im Grid auszuführen.
lies mehr →Die Arbeitsgruppe “Anwendungs- und Informationssysteme” (AG-A) betreibt in gemeinsamen Projekten mit Instituten der Max-Planck-Gesellschaft und der Universität zahlreiche Oracle-Datenbanken, wobei auf viele von ihnen per Web-Schnittstelle weltweit zugegriffen werden kann. Einige dieser Projekte werden hier vorgestellt, die unterlegten Links verweisen direkt auf die Suchmasken der Datenbanken.
lies mehr →Bislang sind Cloud-Infrastrukturen nicht standardisiert, was das Portieren einer existierenden Anwendung in eine Cloud-Plattform häufig sehr aufwendig macht und regelmäßig Expertenwissen erfordert. Hier setzt das Projekt PaaSage an. Im Fokus steht die Entwicklung einer Plattform, die Interoperabilitätsprobleme beseitigt. Diese Intention spiegelt der Projektname PaaSage wider, der sich an den Termini „Plattform as a Service“ und „Passage“ anlehnt und so signalisiert, dass die Nutzung von Cloud-Services für den Anwender vereinfacht wird. Die Möglichkeit einer einfachen, Plattform-übergreifende Implementierung und Nutzung von Cloud Anwendungen ist insbesondere für die europäische Wirtschaft von großem Interesse.
lies mehr →Im Rahmen des Projektes wurden für das Klimamodell ECHAM5 die Problematik der effizienten Parallelisierung mit MPI, OpenMP sowie deren Kombination für die Systeme IBM RS/6000 SP und pSeries untersucht.
lies mehr →Persistente Identifikatoren (PIDs) sind von zentraler Bedeutung für das FAIRe Forschungsdatenmanagement. Hierbei ergeben sich aus unterschiedlichen Forschungsdisziplinen und Ressourcen verschiedene Anforderungen. Auch weisen die 27 NFDI Konsortien stark variierende Reifegrade bei der Implementierung von PIDs auf. Das PID4NFDI Projekt wird ein Arbeitskonzept entwerfen, um einen NFDI Basisdienst auf etablierten PID Infrastrukturen aufzubauen.
lies mehr →Im Rahmen dieses Projektes sollen die Bedeutung und Tragweite solcher Profiling-Anwendungen für Nutzer im HPC-Bereich sichtbar gemacht werden. Hierfür werden automatisch Leistungs- und Lastkennzahlen erhoben, welche dem Nutzer nach Beendigung der Anwendung sowohl im Textformat, als auch in graphischer Darstellung zur Verfügung gestellt werden. Hinzu kommen Hinweise und Empfehlungen zur weiteren Optimierung der Anwendung auf Basis der gesammelten Kennzahlen.
lies mehr →Das EU-Projekt PERICLES ist im Bereich Langzeitarchivierung digitaler Daten angesiedelt. Es dient der Erforschung von Methoden und Diensten mittels derer der Lebenszyklus digitaler Objekte erfasst werden kann. Dabei stehen Änderungen, die Einfluss auf den Lebenszyklus nehmen können, im Fokus. PERICLES verfolgt einen „preservation-by-Design“-Ansatz, um von der a postiori Archivierung weg hin zu der Integration der notwendigen Abläufe in den Alltag zu kommen.
lies mehr →Das Hauptziel des AI-NET-Forschungsprogramms ist die Beschleunigung der digitalen Transformation in Europa durch die Automatisierung intelligenter Netze in jedem Netzsegment, d.h. Edge, Metro, Core und Rechenzentren.
lies mehr →Steigerung der Akzeptanz von Public-Key-Infrastrukturen durch den Einsatz von nutzerorientierten, web-basierten Self-Service Portalen und digitalen Signaturen.
lies mehr →Das Projekt SENDATE ist ein Celtic-Plus Project Verbundprojekt unter dem Dach von EUREKA. Der Fokus liegt auf sicherer und flexibler Datenzentrums-lnterkonnektivität. Die GWDG ist an dem Teilprojekt SENDATE-Secure-DCI beteiligt, das der Erforschung und Entwicklung von Netzarchitekturen und Systemen zur Netzorchestrierung von verteilten Datenzentrenstrukturen dient.
lies mehr →Im Projekt Services@MediGRID soll ein Markt für Services und Methoden etabliert werden. Voraussetzung für eine effektive Inanspruchnahme von Grid-Infrastruktur ist der leichte und niederschwellige Zugang zu den Service-Leistungen, wie sie bspw. in D-Grid angeboten werden.
lies mehr →Ziel des SFB 990 ist die Erforschung von Transformationsprozessen in tropischen Tieflandregenwäldern. Zur Gewinnung von Holz und anderen Waldprodukten sowie zum Anbau von Nahrungs-, Futter-, Faser- und Energiepflanzen werden in vielen tropischen Gebieten Regenwälder gerodet. Die Folgen der Abholzung und die Rolle der daraus entstehenden agrarischen Nutzungssysteme für den Erhalt von Biodiversität und anderen ökologischen und sozioökonomischen Funktionen im wurden bislang allerdings kaum erforscht. Synergien und Konflikte zwischen den unterschiedlichen ökologischen und sozioökonomischen Funktionen sind wesentliche Forschungsgegenstände. Auch das Zusammenspiel von landwirtschaftlicher Nutzung und Naturschutz ist von Interesse. Das Projekt will somit einen Grundstein für die Entwicklung und Umsetzung nachhaltiger Agrarsysteme legen.
lies mehr →Durch Steigerung der Auflösung und die Kombination von spektroskopischen Informationen mit der Bildgebung im Nanometerbereich kann ein tieferer Einblick in komplexe biomolekulare Strukturen gewonnen werden, als bei konventionellen Darstellungsmethoden wodurch der aktuelle Kenntnisstand erweitert wird.
lies mehr →Die Projekte im Sonderforschungsbereich 963 dienen der Erforschung grundlegender Fragen im Zusammenhang mit der Entstehung und Entwicklung von Planeten, Sternen und Galaxien. Hierzu werden verschiedene Aspekte der turbulenten Erzeugung und Verstärkung von Magnetfeldern, der Turbulenz und Instabilität in rotierenden Systemen sowie das Zusammenwirken von Turbulenz und Strömungsinstabilität mit Gravitation, Strahlung und Staubteilchen untersucht. Das am Wissenschaftsstandort Göttingen angesiedelte Teilprojekt INF ADIR ist für die Bereitstellung der zentralen Infrastruktur für die Speicherung und das Management der Daten des gesamten SFB 963 zuständig.
lies mehr →Das von der EU finanzierte Projekt SSHOC (Social Sciences and Humanities Open Cloud) zielt darauf ab, sichere Umgebungen für den Austausch und die Nutzung sensibler und vertraulicher Daten zu ermöglichen. Das Projekt trägt zur europäischen Open-Science-Agenda und zur Verwirklichung der European Open Science Cloud (EOSC) bei.
lies mehr →TextGrid ist ein Forschungsverbund, dessen Ziel es ist, den Zugang und den Austausch von Informationen in den Geistes- und Kulturwissenschaften zu unterstützen. TextGrid entstand auf Grund des stetig wachsenden Interesses an einer virtuellen Forschungsumgebung für geistes- und kulturwissenschaftliche Disziplinen, die philologisches Edieren und kollaboratives Arbeiten vereinfacht. Das Projekt ist getragen von der Vision eines digitalen Ökosystems basierend auf der Fortentwicklung des Open-Source-Gedankens. Zielgruppen sind deshalb nicht nur Wissenschaftler und Forschungseinrichtungen sondern auch Entwickler. Das System ermöglicht einen freien Austausch einzelner Komponenten und spezifische Anpassungen je nach den Bedürfnissen der Anwender und orientiert sich dabei an internationalen Standards wie Markup-Formaten (XML/TEI) und Metadatenkonzepten.
lies mehr →Cloud4E war ein bundesweiter Forschungsverbund von fünf Konsortialpartnern aus Wissenschaft und Wirtschaft mit dem Ziel, Simulationsanwendungen für innovative Produktentwicklung insbesondere für das KMU-Umfeld in der Cloud bereitzustellen, um dem Mittelstand die effektive Nutzung von Cloud-Computing für den Entwurf technischer Systeme zu ermöglichen. Die Projektergebnisse senken die Hemmschwelle zur Nutzung innovativer, rechnergestützter Entwurfsverfahren wesentlich, weil Investitionen in Hardware, Software und Personal durch die Nutzung von Cloud-Ressourcen reduziert werden können.
lies mehr →Das Hauptziel von Up2U ist es, die Kluft zwischen Sekundarschulen und Hochschulbildung und Forschung zu überbrücken, indem sie formale und informelle Lernszenarien besser integriert und sowohl die Technologie als auch die Methodik anpasst, die regelmäßig an Studierende an Universitäten gestellt werden.
lies mehr →Ziel des Projektes ist die Entwicklung des Prototyps einer Virtuellen Forschungsumgebung (VFU), die eine kollaborative Nutzung sozialwissenschaftlicher Mikrodaten der Forschungsdatenzentren im Verbundvorhaben „Dritter Bericht zur sozioökonomischen Entwicklung in Deutschland“ über die gesamte wissenschaftliche Leistungskette unterstützt. In einer Einführungs- und Entwicklungsphase von 21 Monaten soll ein VFU-Portal entstehen, das mit ersten kollaborativen Werkzeugen in der Forschungspraxis erprobt und einsetzbar ist.
lies mehr →