Anonymisierte Routinedaten aus der ambulanten Versorgung für die Versorgungsforschung (RADAR)

Das Projekt RADAR ist in den Bereichen Epidemiologie, Medizinische Biometrie und Medizinische Informatik angesiedelt. Es dient der Nutzbarmachung von Routinedaten aus niedergelassenen ärztlichen Praxen für die Versorgungsforschung. Dabei handelt es sich vor allem um Daten über den Gesundheitszustand von Patienten und adäquate Gesundheitsleistungen. Die systematische Auswertung dieser Daten ist in Deutschland bislang kaum möglich. Erhebung, Verarbeitung und Nutzung von Gesundheitsdaten, unter die sog. besonderen Kategorien personenbezogener Daten gemäß Artikel 9 der Europäischen Datenschutzgrundverordnung (DSGVO) fallen, unterliegen besonderen Anforderungen. Hinzu kommen technische und prozedurale Probleme. lies mehr →

ARCHIVER

The goal of Archiver is to provide research organizations and the European Science community with an OAIS-compliant data preservation solution, that is open, easy to-use, extendable, cost- and energy efficient. lies mehr →

Automatisiertes Verbundsystem für audiovisuelle Bestände über einheitliche Film Identifikatoren (AVefi)

Im Projekt “Automatisiertes Verbundsystem für Einheitliche Film-Identifikatorn” (AV-EFI) arbeiten filmhaltende Institute mit Infrastrukturanbietern zusammen, um ein zentrales PID-basierendes Verbundsystem zu etablieren. Die Vernetzung von Metadaten aus verschiedenen Quellen ist ein allgemeines Ziel, was nun mit dem Projekt im Bereich der audiovisuellen Bestände etabliert werden soll. Durch den Aufbau eines solchen Verbundsystems werden nicht nur Film- und Medienwissenschaften angesprochen, sondern auch den interdisziplinären Geistes- und Kulturwissenschaften wird ein neuer Zugang zu kulturellen Erbe unserer Gesellschaft ermöglicht. lies mehr →

BExModularisierung und Skalierung der BExIS Experimentdatenhaltungsplattform für die Umweltforschung - Phase 2 (BExIS++) IS

BExIS ist die zentrale Datenmanagementplattform des groß angelegten Verbundprojektes ‚ Exploratorien zur funktionellen Biodiversitätsforschung’ mit einer Vielzahl von Einzelprojekten, das 2006 anlief. BExIS steht für Biodiversitäts-Exploratorien Informationssystem. Seit ihrer Einführung 2007 wird die BExIS-Plattform kontinuierlich weiterentwickelt. Das aktuelle Projekt BExIS++ dient der Weiterentwicklung von Konzepten und Methoden der Langzeitsicherung der Forschungsdaten sowie von Werkzeugen, die kollaboratives Forschen erleichtern, um eine Institutionalisierung der Plattform zu sichern. Des Weiteren fördert BExIS++ die Entwicklung und Institutionalisierung von Beratungs- und Lehrangeboten zum Thema Forschungsdatenmanagement an der Universität Jena und den beteiligten Universitäten Göttingen und TU München. lies mehr →

BIRD

Bildungsraum Digital (BIRD) ist der erste von insgesamt vier Prototypen für eine künftige Nationale Bildungsplattform in Deutschland. Er ermöglicht das Testen von Strukturen für den Datenaustausch, die Interoperabilität von unterschiedlichen Plattformtypen und die Implementierung von Standards. Mit der geplanten Nationalen Bildungsplattform wird der Digitalisierungsschub im Bildungsbereich forciert, bundesweit gestützt und professionalisiert. lies mehr →

Common LAnguage Resource and Technology INFfrastructure (CLARIN-D)

CLARIN-D ist das Deutsche Verbundprojekt im Rahmens des europäischen Forschungskonsortiums CLARIN. Zielsetzung ist die Schaffung einer integrierten, interoperablen und skalierbaren Forschungsinfrastruktur für geistes- und sozialwissenschaftliche Disziplinen, bei denen Sprachressourcen eine wesentliche Rolle spielen. CLARIN konzentriert sich speziell auf die Anforderungen sprachwissenschaftlicher Disziplinen an die Datenverarbeitung in Bezug auf Textannotation oder Werkzeuge für semantische Analysen. Linguistische Daten, Werkzeuge und Dienste sollen systematischer und einfacher nutzbar gemacht werden, als es bislang der Fall ist. lies mehr →

Device-Edge-Cloud Intelligent Collaboration framEwork (DECICE)

The DECICE project was created in response to an EU Horizon research and innovation programme calling for the development of a cognitive cloud system. Such a system should be able to integrate cloud, HPC and edge resources and optimize their usage. Furthermore, machine learning based schedulers will automatically optimize the placement of workloads across the heterogeneous hardware landscape managed by it. As part of this project, challenges must be solved regarding the integration of distinct hardware architectures into a unified platform as well as building a process for gathering metrics and finding near optimal scheduling decisions in a reasonable amount of time while also scaling to thousands of nodes across multiple data centers and countries. lies mehr →

Digitale Forschungsinfrastrukturen für die Geistes- und Kulturwissenschaften (DARIAH-DE)

Ziel des Projekts ist die Errichtung einer nachhaltigen digitalen Infrastruktur für die Langzeitverfügbarkeit von Kulturgütern und Forschungsdaten in den Kultur- und Geisteswissenschaften. Als Partner im Verbund DARIAH-EU trägt DARIAH-DE dazu bei, europaweit state-of-the-art Aktivitäten der Digitalen Geisteswissenschaften zu bündeln und zu vernetzen. Als Teil der europäischen ESFRI-Initiative arbeiten viele Einrichtungen auf nationaler und internationaler Ebene zusammen. Gemeinsam bilden sie das europaweit größte geisteswissenschaftliche Projekt für den Aufbau von Infrastrukturen in diesen Forschungsgebieten. lies mehr →

Digitale Keilschriftbibliothek

Gemeinsam mir dem Seminar für Altorientalistik wurden bearbeitete Keilschrifttafeln und zusammen mit weiteren Informationen digital zusammengestellt und online zur Verfügung gestellt. lies mehr →

eLabour

Neue Konturen von Produktion und Arbeit. Interdisziplinäres Zentrum für IT-basierte qualitative arbeitssoziologische Forschung (eLabour)

Das vom BMBF geförderte Projekt eLabour führt qualitative Forschung im Bereich Sozialwissenschaften durch. Hierzu werden bereits erhobene Studiendaten aus verschiedenen Sozialwissenschaftlichen Forschungseinrichtungen unter neuen Forschungsfragstellungen ausgewertet. Da es sich um Forschungsdaten aus über 40 Jahren handelt, liegen diese in den unterschiedlichsten Medien vor: als Dokumente in Papierform, als Toninterviews und in zahlreichen digitalen Schriftformaten. Im Projekt eLabour wird nun eine zentrale digitale Plattform zur Erfassung und zur Ermöglichung des vereinfachten Zugriffs auf diese Forschungsdaten in digitalisierter Form aufgebaut. Diese Plattform soll - unter Gewährleistung des Datenschutzes - kollaborative Zusammenarbeit mit den Forschungsunterlagen in einer virtuellen Forschungsinfrast

lies mehr →

Elektronisches Archiv der LNHF

Im Rahmen des Online-Projektes der Landeskonferenz Niedersächsischer Hochschulfrauenbeauftragter (LNHF) wurde in Zusammenarbeit mit der GWDG ein elektronisches Archiv auf der Basis einer Oracle-Datenbank entwickelt. Das Archiv enthält sowohl allgemeine Dokumente zur Frauenförderung als auch Unterlagen zur aktuellen Arbeit der LNHF. Ein Teil der Dokumente ist öffentlich zugänglich, ein anderer Teil ist im internen Bereich vor Zugriff von außen gesichert, er kann nur von den Frauenbeauftragten und den Mitarbeiterinnen der Frauenbüros genutzt werden. lies mehr →

Engaging the Research Community towards an Open Science Commons (EGI-Engage)

EGI Engage will Forschern ein breites Spektrum an Möglichkeiten bieten (z.B. durch verbesserte Cloud- und Datendienste). Hierzu soll die Vernetzung mit großen Forschungsinstrastrkturen, dem Long Tail der Wissenschaft, der Instustrie und KMU erfolgen. Der größten Stellenwert wird einem Netzwerk von acht Kompetenzzentren zukommen, in denen nationale GRID-Initiativen, Nutzergemeinschaften und technologiedienstleister zusammenarbeiten, um hochmoderne Dienste zu integrieren. Die Interoperabilität soll gestärkt und nutzerspezifische Dienstleistungen sollen evaluiert und angeboten werden. Zur Integration des “Long Tails” sollen vereinfachte Zugangsmodalitäten und Dienste etabliert werden, um bestehende Barrieren abzubauen. lies mehr →

EURExpress

Im großen europäischen Forschungsrojekt EURExpress wurden an verschiedenen Standorten in Europa große Mengen von Schnitten durch Mausembryonen erzeugt und die Aktivität von Tausenden von Genen in diesen Schnitten durch molekularbiologische Methoden sichtbar gemacht. Als Ergebnis entstanden mit Hilfe von automatisierten Mikroskopieverfahren große Mengen hochauflösender digitaler Bilddaten, die zur GWDG transferiert, dort weiterverarbeitet und gespeichert wurden. Wichtigstes Ziel des Projekts EURExpress war die Erstellung eines Internet-basierten Expressionsatlasses für das Genom der Maus, d. h. eine Kartierung der Aktivität der einzelnen Bestandteile des Erbguts. lies mehr →

ForestCare

The worldwide forest industry is in an upheaval state due to climate change. The project FORESTCARE (–Single-tree satellite-based forest ecosystem monitoring with autoadaptive hyperdimensions – Geodata analysis) aims to monitor regional forest growth on a single-tree level, recommend and evaluate alternative adapted species for afforestation measures, and coordinate preventive forest protection measures at an early stage. lies mehr →

GenePaint

Unter dem Dach von GenePaint steht Forschern die weltweit erste umfassende Übersicht über die räumliche und zeitliche Aktivität aller bekannten Gene ( Genexpression) eines ganzen Säugerorganismus zu einem bestimmten Zeitpunkt seiner Entwicklung am Beispiel des Mäusegenoms zur Verfügung. Mittels dieser Daten ist es zum Beispiel möglich, Kandidatengene für genetische und komplexe Erkrankungen zu ermitteln. Ein Fernziel des Projekts ist der Aufbau eines europäischen Online-Dienstes „European Database of Gene Expression“. lies mehr →

GFBio

Das Projekt GFBio ist der Zusammenschluss der Hauptakteure aus den Bereichen der Archivierung und Bereitstellung umweltbezogener biologischer Daten in Deutschland. Es läuft seit 2015 in der zweiten Förderphase. Umweltforschung und Biologie stehen vor großen Herausforderungen, die das Ökosystem und die Klimadynamik unseres Planeten betreffen. Um der Größenordnung und Komplexität der zu lösenden Probleme gerecht zu werden, muss vor allem im Bereich des Wissensaustausches stärker zusammengearbeitet werden. Allerdings sind heute biologische Informationen weit verstreut und schwer auffindbar, was ein abgestimmtes Vorgehen zur Verbesserung des Zugangs zu wissenschaftlichen Daten und deren Bewahrung erfordert. lies mehr →

GÖ* - Integriertes Informationsmanagement am Wissenschaftsstandort Göttingen

Die DFG hatte im Jahre 2002 zur Stärkung der Informationsstrukturen an deutschen Hochschulen und Forschungseinrichtungen einen zweiphasigen Wettbewerb ausgeschrieben. Das vorgelegte Konzept sieht vor, die seit über 30 Jahren gewachsenen getrennten IT-Strukturen unter Einbeziehung der Max-Planck-Gesellschaft so zusammenzufassen, dass ein einheitliches, transparentes Leistungsangebot für Wissenschaftler*innen, Lehrende, Studierende, Verwaltung und weitere Abnehmer*innen (z. B. in der Krankenversorgung) entsteht. lies mehr →

Humanities Data Centre (HDC)

Zentrale Aufgaben des Humanities Data Centre sind die langfristige Sicherung von Forschungsdaten (z. B. kritische Editionen, Multimedia-Objekte oder 3D-Modelle) und, sofern rechtlich möglich, deren Bereitstellung zur Nachnutzung sein. Wichtige Projekte im Bereich Geisteswissenschaften, wie DARIAH und TextGrid, an denen die GWDG ebenfalls beteiligt ist, verwenden in ihren Forschungsumgebungen bereits erhebliche Datenbestände, für die ein gemeinsamer Forschungsdaten-Service benötigt wird. Das Humanities Data Centre ist somit eine zentrale Datenschnittstelle für virtuelle Forschungsumgebungen in den Geisteswissenschaften. lies mehr →

Identity Management

Verzeichnisdienste bilden die Basis für die Verwaltung von Identitäten (Benutzerkonten), Gruppen, Rechten und allgemeinen Informationsstrukturen in IT-Umgebungen. Im wissenschaftlichen Umfeld herrscht hierbei insbesondere eine hohe Fluktuation sowie Dezentralität der Identitäten vor. Innerhalb des GÖ*-Projekts werden die Identitäten der beteiligten Partner in unterschiedlichen Verzeichnissen verwaltet. Einzelne Identitäten sind hierbei teilweise bereits identisch, andere sollen abgeglichen werden, um kooperative Arbeitsstrukturen zu ermöglichen. Im Rahmen dieses Projekts werden daher Möglichkeiten für den institutionsübergreifenden Abgleich von Identitäten, zugehörigen Rechten und Strukturen modelliert und implementiert, um unternehmensübergreifende Vertrauensstellungen abzubilden. lies mehr →

Instant-Grid

Das Instant-Grid ist eine Knoppix-basierte Live-CD mit einer vorkonfigurierten Grid-Umgebung auf Basis des Globus-Toolkit. Ein PC wird von der CD gestartet und fungiert als Frontend des Instant-Grid. Er dient außerdem als PXE-Boot-Server und erlaubt so weiteren PCs im gleichen lokalen Netzwerk den Start der Instant-Grid-Umgebung per Netzwerk-Interface. Gemeinsam mit dem Frontend bilden diese Rechner - ohne weiteres Zutun des Anwenders - ein funktionsfähiges Test-Grid. Wie beim originalen Knoppix muss dabei die bestehende Konfiguration der Rechner (abgesehen vom Einschalten der PXE-Boot-Möglichkeit) nicht verändert werden und steht nach einem Neustart sofort wieder zur Verfügung. lies mehr →

jointly

Das Verbundprojekt JOINTLY unterstützt OER-Akteure bei der Entwicklung und Verbreitung ihrer offenen Bildungsmaterialien und organisiert den Wissenstransfer und Kooperationsaktivitäten untereinander. Hierfür werden Konzepte, Inhalte und Lösungen, die in Kooperationen entwickelt wurden, fachspezifisch diskutiert und von Experten bewertet. Das Projekt fördert somit den Erwerb und die de Nutzbarmachung erprobten Wissens für die OER- oder IT-Praxis. Zum Wissenstransfer werden Webinare, „Lehrgangstage“ und Transferworkshops angeboten. Ein Fokus liegt auf Beratung durch Experten aus den Feldern Recht, Produktion, Didaktik und IT. Ferner werden in dem Projekt gemeinschaftlich OER-förderliche softwarewerkzeuge sowie Arbeits- und Vertriebsinstrumente entwickelt. Für Experten und Entscheider aus den Bereichen Bildung, Politik und Gesellschaft wird eine fachspezifische Diskussionsplattform zum Austausch über die im OERinfo-Programm entstandenen Lösungen etabliert. lies mehr →

JUPYTER4NFDI

Jupyter4NFDI ist ein Projekt zur Erstellung eines NFDI-Basisdienstes (s. auch https://base4nfdi.de/ und https://www.nfdi.de/), der die Nutzung der vielen an den Partnerinstitutionen und darüber hinaus existierenden JupyterHubs über einen zentralen Hub ermöglicht und somit den Zugang zur Jupyter-Technologie und zu verfügbaren Rechenressourcen einschließlich HPC, erleichtert. Darüber hinaus kann eine Vielzahl von Softwareumgebungen und notebookbasierten Werkzeugen über diese Infrastruktur zur Verfügung gestellt und besonders einfach genutzt werden, da sich die Nutzer nicht um die Installation oder Wartung kümmern müssen. lies mehr →

KI-Servicezentrum für sensible und kritische Infrastrukturen (KISSKI)

The goal of KISSKI is to establish an AI-servicecenter that provides everything necessary for developing and deploying AI based solutions. This includes data via prepared trainings data and pre-trained models, expertise via training, consulting and support, hardware including HPC systems and specialized hardware as well as infrastructure using Kubernetes to enable serverless, AI-as-a-Service deployments. lies mehr →

KoLaWiss: Anforderungen an eine Langzeitarchivierung am Beispiel des Wissenschaftsstandortes Göttingen.

Um die Anforderungen der wissenschaftlichen Community an digitale Langzeitarchivierungsmaßnahmen zu evaluieren, wird gegenwärtig das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Projekt KoLaWiss („Kooperative Langzeitarchivierung für Wissenschaftsstandorte“) durchgeführt. Unter Projektleitung der Gesellschaft für wissenschaftliche Datenverarbeitung mbH (GWDG) führen die Staats- und Universitätsbibliothek Göttingen (SUB), der Geschäftsbereich Informationstechnologie (G3-7 IT) und die Medizinische Informatik (MI) der Universitätsmedizin eine 1-jährige Studie zum Thema Langzeitarchivierung von digitalen Primärdaten an Wissenschaftsstandorten durch. lies mehr →

Kooperatives Langzeitarchiv (koala)

Seit Januar 2005 ist die GWDG Kooperationspartner der Deutschen Nationalbibliothek (DNB) für das Thema Langzeitarchivierung (LZA). Die DNB hat durch das „Gesetz über die Deutsche Nationalbibliothek“ (DNBG) den Auftrag zur Sammlung, Erschließung, Verzeichnung und Archivierung von Medienwerken in körperlicher und unkörperlicher Form. Medienwerke in unkörperlicher Form sind digitale Objekte, sogenannte Netzpublikationen. Im Rahmen dieser Partnerschaft wurde die Software „koala“ von der GWDG entwickelt. lies mehr →

kopal

Das Projekt kopal hat den Aufbau einer technischen und organisatorischen Infrastruktur zur Sicherung der Langzeitverfügbarkeit digitaler Dokumente zum Ziel. Das Archivsystem soll neben dem physischen Erhalt der Daten vor allem auch deren künftige Interpretierbarkeit gewährleisten. lies mehr →

MediGRID

Auch in der biomedizinischen Forschung findet Grid-Computing zunehmende Verbreitung und ist zu einem bedeutenden Fortschrittsfaktor geworden. MediGRID ist ein Verbundprojekt von renommierten Forschungseinrichtungen aus den Bereichen Medizin, Bioinformatik und Gesundheitswissenschaften unter weiterer Einbeziehung zahlreicher assoziierter Partner aus Industrie sowie Versorgungs- und Forschungseinrichtungen. Damit wird das Projekt auf eine breite Basis gestellt. MediGRID soll anhand ausgewählter Anwendungsbeispiele zeigen, ob und wie in welchen Fällen Grid-Technologie in der biomedizinischen Forschung nutzbringend eingesetzt werden kann. lies mehr →

Memory-Centric Storage for Exascale (MCSE)

Our goal in this project is to remove the separation of main memory and non-volatile memory and bring them together in a distributed computing system under a unified interface so that different classes of storage media can be used flexibly in HPC workflows. lies mehr →

MINE

MINE is a service which offers access to various text resources and their extracted knowledge. Additionally, it also offers a workspace for users to run their analytics workflows. The service is currently under development and is a joint project between the Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) and the GWDG. lies mehr →

MRI Big Data

Die “Radionomik” ist heute ein häufig genutzter Ansatz zur Extraktion von Bildmerkmalen, die dann mit klinisch relevanten Parametern korreliert werden. Da MR-Bilder in einem so genannten k-Raum aufgenommen werden, müssen sie zunächst rekonstruiert werden, bevor diese Ansätze genutzt werden können. In einem neuartigen Ansatz innerhalb dieses Projekts sollen neuronale Netze in die Rekonstruktionsprozesse eingeführt werden und relevante Biomarker direkt aus MR-Signalen extrahieren, um relevante Informationen aus den Rohdaten und nicht nur aus den verarbeiteten Daten zu lernen. lies mehr →

NEPHELE

Das Projekt NEPHELE dient der Entwicklung einer dynamischen optischen Netzwerk-Infrastruktur zur Effizienzsteigerung von Rechenzentren und damit auch der Kostenreduzierung und der Energieeinsparung. Durch die Überwindung derzeitiger Architekturbegrenzungen wird damit eine bessere Skalierbarkeit in Cloud-Infrastrukturen ermöglicht. lies mehr →

NETWORK for the CLOUD COMPUTING ECO-SYSTEM (CleanSky ITN)

Im Rahmen dieses interdisziplinären Projekts aus den Bereichen Informatik, Telekommunikation, wissenschaftliches Rechnen und Scheduling entwickeln Nachwuchswissenschaftler innovative, effiziente Methoden im Bereich „Cloud-Computing“ zur Senkung des Energieverbrauchs und damit der Kosten von Rechenzentren. Erarbeitet werden sollen Modelle zur Bündelung von Rechenzentren in einem kleinen Verbund von „Cloud-Zentren“ zum Beispiel durch Service-Migration. Auch die Nutzung erneuerbarer Energien in diesen Cloud-Zentren steht auf der Agenda. lies mehr →

NHR DataLakes

Die datengetriebene Wissenschaft erfordert nicht nur schnelle Speichersysteme, sondern auch Strategien zur effizienten Verwaltung dieser Daten in und zwischen Rechenzentren. Big-Data-Tools können den Bedarf an der Suche nach Daten auf der Grundlage benutzerspezifischer Metadaten befriedigen. Es gibt jedoch einen ganzen Zoo von Tools, und kein einziges Tool kann alle Anforderungen erfüllen, die ein HPC-System in einem Rechenzentrum benötigt. Data Lakes zum Beispiel sind ein sinnvoller Ansatz, aber es gibt auch alternative Konzepte und Tools, die in Betracht gezogen werden müssen. Eine einheitliche und konsistente Sicht auf die Millionen von Daten auf HPC-Systemen und deren effiziente Verarbeitung ist erforderlich, um die Verwertbarkeit zu maximieren und segmentierte Datensilos zwischen Nutzern oder Projekten zu verhindern. lies mehr →

NHR-Container Project

Wir sehen Container-Umgebungen als wertvolles Tool, zum einen um Usern zu erlauben, die benötigten Softwareumgebungen in Eigenregie zu erstellen und weitgehend von der Systemumgebung zu entkoppeln, zum anderen als Basis für eine einfache Migration zwischen den NHR-Zentren. Ziel des Projektes in der ersten Phase ist daher die Entwicklung portabler Container-Beschreibungen, die Usern als Basis für eigene Container dienen können und an mehreren Zentren nutzbar sind. Darauf aufbauend bietet sich die Einrichtung eines gemeinsamen Repositoriums für geprüfte Beschreibungen (bzw. fertige Container) an. Die Entwicklung von Cluster-on-Demand-Ansätzen für HPDA mit Kubernetes, der am weitesten verbreiteten Lösung für die Container-Orchestrierung (Bereitstellung, Skalierbarkeit, Überwachung) über mehrere Nodes, ist das Ziel einer 2. Phase. lies mehr →

Optical Character Recognition Development (OCR-D)

Mit den Verzeichnissen der im deutschen Sprachraum erschienenen Drucke des 16.–18. Jahrhunderts (VD 16, VD 17, VD 18) wird eine retrospektive Nationalbibliografie des frühneuzeitlichen Schriftguts aus dem deutschsprachigen Raum erstellt. Um der Forschung die Zugänglichkeit zu diesen Texten zu erleichtern, wurden und werden große, konzertierte Anstrengungen unternommen, Volldigitalisate oder Schlüsselseiten zu den einzelnen verzeichneten Titeln digital bereitzustellen. lies mehr →

OptiNum-Grid

Die Entwicklung innovativer neuer Produkte ist heutzutage in vielen Bereichen ohne Computer-Simulationen nicht mehr möglich. Das liegt zum einen an ständig mächtiger, aber eben auch komplexer werdenden Technologien. Zum anderen steigen die Anforderungen an die Gewährleistung der Produktsicherheit in allen Stadien der Entwicklung. Die benötigte Computerleistung überschreitet oft die Grenzen dessen, was insbesondere mittelständische Unternehmen ihren Ingenieuren bereitstellen können. Im OptiNum-Grid-Projekt haben sich daher, koordiniert durch die GWDG, Forschungseinrichtungen und Unternehmen mit Ressourcen-Providern zusammengeschlossen, um numerische Simulationen im Grid auszuführen. lies mehr →

Oracle Datenbank Projekte

Die Arbeitsgruppe “Anwendungs- und Informationssysteme” (AG-A) betreibt in gemeinsamen Projekten mit Instituten der Max-Planck-Gesellschaft und der Universität zahlreiche Oracle-Datenbanken, wobei auf viele von ihnen per Web-Schnittstelle weltweit zugegriffen werden kann. Einige dieser Projekte werden hier vorgestellt, die unterlegten Links verweisen direkt auf die Suchmasken der Datenbanken. lies mehr →

PaaSage: MODEL-BASED CLOUD PLATFORM UPPERWARE

Bislang sind Cloud-Infrastrukturen nicht standardisiert, was das Portieren einer existierenden Anwendung in eine Cloud-Plattform häufig sehr aufwendig macht und regelmäßig Expertenwissen erfordert. Hier setzt das Projekt PaaSage an. Im Fokus steht die Entwicklung einer Plattform, die Interoperabilitätsprobleme beseitigt. Diese Intention spiegelt der Projektname PaaSage wider, der sich an den Termini „Plattform as a Service“ und „Passage“ anlehnt und so signalisiert, dass die Nutzung von Cloud-Services für den Anwender vereinfacht wird. Die Möglichkeit einer einfachen, Plattform-übergreifende Implementierung und Nutzung von Cloud Anwendungen ist insbesondere für die europäische Wirtschaft von großem Interesse. lies mehr →

PID4NFDI

Persistente Identifikatoren (PIDs) sind von zentraler Bedeutung für das FAIRe Forschungsdatenmanagement. Hierbei ergeben sich aus unterschiedlichen Forschungsdisziplinen und Ressourcen verschiedene Anforderungen. Auch weisen die 27 NFDI Konsortien stark variierende Reifegrade bei der Implementierung von PIDs auf. Das PID4NFDI Projekt wird ein Arbeitskonzept entwerfen, um einen NFDI Basisdienst auf etablierten PID Infrastrukturen aufzubauen. lies mehr →

Profiling Toolkit for HPC (ProfiT HPC)

Im Rahmen dieses Projektes sollen die Bedeutung und Tragweite solcher Profiling-Anwendungen für Nutzer im HPC-Bereich sichtbar gemacht werden. Hierfür werden automatisch Leistungs- und Lastkennzahlen erhoben, welche dem Nutzer nach Beendigung der Anwendung sowohl im Textformat, als auch in graphischer Darstellung zur Verfügung gestellt werden. Hinzu kommen Hinweise und Empfehlungen zur weiteren Optimierung der Anwendung auf Basis der gesammelten Kennzahlen. lies mehr →

PROMOTING and ENCHANCING REUSE of INFORMATION throughout the CONTENT LIFECYCLE taking account of EVOLVING SEMANTICS (PERICLES)

Das EU-Projekt PERICLES ist im Bereich Langzeitarchivierung digitaler Daten angesiedelt. Es dient der Erforschung von Methoden und Diensten mittels derer der Lebenszyklus digitaler Objekte erfasst werden kann. Dabei stehen Änderungen, die Einfluss auf den Lebenszyklus nehmen können, im Fokus. PERICLES verfolgt einen „preservation-by-Design“-Ansatz, um von der a postiori Archivierung weg hin zu der Integration der notwendigen Abläufe in den Alltag zu kommen. lies mehr →

Secure Networking for a Data Center Cloud in Europe (SENDATE)

Das Projekt SENDATE ist ein Celtic-Plus Project Verbundprojekt unter dem Dach von EUREKA. Der Fokus liegt auf sicherer und flexibler Datenzentrums-lnterkonnektivität. Die GWDG ist an dem Teilprojekt SENDATE-Secure-DCI beteiligt, das der Erforschung und Entwicklung von Netzarchitekturen und Systemen zur Netzorchestrierung von verteilten Datenzentrenstrukturen dient. lies mehr →

Services@MediGRID

Im Projekt Services@MediGRID soll ein Markt für Services und Methoden etabliert werden. Voraussetzung für eine effektive Inanspruchnahme von Grid-Infrastruktur ist der leichte und niederschwellige Zugang zu den Service-Leistungen, wie sie bspw. in D-Grid angeboten werden. lies mehr →

SFB 990

Ziel des SFB 990 ist die Erforschung von Transformationsprozessen in tropischen Tieflandregenwäldern. Zur Gewinnung von Holz und anderen Waldprodukten sowie zum Anbau von Nahrungs-, Futter-, Faser- und Energiepflanzen werden in vielen tropischen Gebieten Regenwälder gerodet. Die Folgen der Abholzung und die Rolle der daraus entstehenden agrarischen Nutzungssysteme für den Erhalt von Biodiversität und anderen ökologischen und sozioökonomischen Funktionen im wurden bislang allerdings kaum erforscht. Synergien und Konflikte zwischen den unterschiedlichen ökologischen und sozioökonomischen Funktionen sind wesentliche Forschungsgegenstände. Auch das Zusammenspiel von landwirtschaftlicher Nutzung und Naturschutz ist von Interesse. Das Projekt will somit einen Grundstein für die Entwicklung und Umsetzung nachhaltiger Agrarsysteme legen. lies mehr →

Sonderforschungsbereich 963 – Astrophysikalische Strömungsinstabilität und Turbulenz (SFB 963 – AstroFIT)

Die Projekte im Sonderforschungsbereich 963 dienen der Erforschung grundlegender Fragen im Zusammenhang mit der Entstehung und Entwicklung von Planeten, Sternen und Galaxien. Hierzu werden verschiedene Aspekte der turbulenten Erzeugung und Verstärkung von Magnetfeldern, der Turbulenz und Instabilität in rotierenden Systemen sowie das Zusammenwirken von Turbulenz und Strömungsinstabilität mit Gravitation, Strahlung und Staubteilchen untersucht. Das am Wissenschaftsstandort Göttingen angesiedelte Teilprojekt INF ADIR ist für die Bereitstellung der zentralen Infrastruktur für die Speicherung und das Management der Daten des gesamten SFB 963 zuständig. lies mehr →

SSHOC

Das von der EU finanzierte Projekt SSHOC (Social Sciences and Humanities Open Cloud) zielt darauf ab, sichere Umgebungen für den Austausch und die Nutzung sensibler und vertraulicher Daten zu ermöglichen. Das Projekt trägt zur europäischen Open-Science-Agenda und zur Verwirklichung der European Open Science Cloud (EOSC) bei. lies mehr →

TextGrid

TextGrid ist ein Forschungsverbund, dessen Ziel es ist, den Zugang und den Austausch von Informationen in den Geistes- und Kulturwissenschaften zu unterstützen. TextGrid entstand auf Grund des stetig wachsenden Interesses an einer virtuellen Forschungsumgebung für geistes- und kulturwissenschaftliche Disziplinen, die philologisches Edieren und kollaboratives Arbeiten vereinfacht. Das Projekt ist getragen von der Vision eines digitalen Ökosystems basierend auf der Fortentwicklung des Open-Source-Gedankens. Zielgruppen sind deshalb nicht nur Wissenschaftler und Forschungseinrichtungen sondern auch Entwickler. Das System ermöglicht einen freien Austausch einzelner Komponenten und spezifische Anpassungen je nach den Bedürfnissen der Anwender und orientiert sich dabei an internationalen Standards wie Markup-Formaten (XML/TEI) und Metadatenkonzepten. lies mehr →

Trusted Cloud Computing for Engineering (Cloud4E)

Cloud4E war ein bundesweiter Forschungsverbund von fünf Konsortialpartnern aus Wissenschaft und Wirtschaft mit dem Ziel, Simulationsanwendungen für innovative Produktentwicklung insbesondere für das KMU-Umfeld in der Cloud bereitzustellen, um dem Mittelstand die effektive Nutzung von Cloud-Computing für den Entwurf technischer Systeme zu ermöglichen. Die Projektergebnisse senken die Hemmschwelle zur Nutzung innovativer, rechnergestützter Entwurfsverfahren wesentlich, weil Investitionen in Hardware, Software und Personal durch die Nutzung von Cloud-Ressourcen reduziert werden können. lies mehr →

Up to University (Up2U)

Das Hauptziel von Up2U ist es, die Kluft zwischen Sekundarschulen und Hochschulbildung und Forschung zu überbrücken, indem sie formale und informelle Lernszenarien besser integriert und sowohl die Technologie als auch die Methodik anpasst, die regelmäßig an Studierende an Universitäten gestellt werden. lies mehr →

VFU soeb 3

Ziel des Projektes ist die Entwicklung des Prototyps einer Virtuellen Forschungsumgebung (VFU), die eine kollaborative Nutzung sozialwissenschaftlicher Mikrodaten der Forschungsdatenzentren im Verbundvorhaben „Dritter Bericht zur sozioökonomischen Entwicklung in Deutschland“ über die gesamte wissenschaftliche Leistungskette unterstützt. In einer Einführungs- und Entwicklungsphase von 21 Monaten soll ein VFU-Portal entstehen, das mit ersten kollaborativen Werkzeugen in der Forschungspraxis erprobt und einsetzbar ist. lies mehr →