https://www.ovgu.de/search

Forschung & Transfer

Architektur G25

Die Otto-von-Guericke-Universität Magdeburg setzt sich mit der Vielfalt sowohl nationaler, aber auch globaler gesellschaftlicher Herausforderungen auseinander. Das betrifft technische, gesundheitliche und ökologische Fragestellungen; aber auch ethische, kulturelle, soziale und ökonomische Probleme sind  Gegenstand wissenschaftlich-methodischer Betrachtung, Kontextuierung, Konzeptionierung und Reflexion.

Als Vorreiter technologischer Entwicklung wird die Universität Magdeburg mehr und mehr zur Schnittstelle zwischen Wissenschaft und Wirtschaft. Sie versteht sich als eine Leitfigur beim Ausbau der wirtschaftlichen Entwicklung der Region. Wissenschaftlerinnen und Wissenschaftler der Otto-von-Guericke-Universität Magdeburg beraten und unterstützen mit ihrer Expertise wichtige und zukunftsweisende Vorhaben der Stadt, des Landes oder regionaler Unternehmen. Sie sind als Ingenieure, Wirtschaftswissenschaftler, Soziologen, Mediziner oder Informatiker mit ihrem Wissen unverzichtbare Partner in regionalen und überregionalen Netzwerken und so an der gedeihlichen Entwicklung der Landeshauptstadt maßgeblich beteiligt.

Durch die gezielte Anwerbung unternehmerisch begabter Studienanfängerinnen und -anfänger aus ganz Deutschland und dem Ausland und ein entsprechendes Lehrangebot werden Studierende auch zu Unternehmerinnen und Unternehmern herangebildet, die im Anschluss an ihr Studium sowohl in Wissenschaft, Wirtschaft und der Kultur neue Impulse setzen.

Das Profil ist geprägt durch Exzellenzschwerpunkte, Sonderforschungsbereiche, Graduiertenkollegs und Forschergruppen. Externe Kooperationen bestehen mit angegliederten Zentren, An-Instituten und außeruniversitären Forschungseinrichtungen. Als Impulsgeber und Entwicklungsmotor auch weit über die Landesgrenzen hinaus, verfolgt die Universität Magdeburg Innovationsstrategien zur Stärkung des Technologie- und Wissenstransfers in regionale und überregionale Unternehmen.

 

Aktuelle Meldungen aus Forschung & Transfer:


Interagieren Frauen und Männer unterschiedlich mit Computern?

Was haben Informatik und Geschlecht miteinander zu tun? Eine These sagt, dass in die Software-Entwicklung persönliche oder soziale Gendereinstellungen einfließen, Männer und Frauen also anders ticken bei der Nutzung und Programmierung. Diese Herangehensweisen können sich dann in Produkten verfestigen. Wer kennt sie nicht, Siri aus dem iPhone oder Alexa von Amazon. Das Projekt „Gender x Informatik“ fördert die Integration von Genderaspekten in Forschungsprojekte der Informatik. Die Fakultät für Informatik der Otto-von-Guericke-Universität Magdeburg hat Forscherinnen und Forscher aus dem Fachbereich Informatik zu einem Workshop eingeladen, „Genderforschung in Human-Computer Interaction“ zu diskutieren.

Als Referentinnen konnten Jun.-Prof. Dr. Claude Draude vom Wissenschaftlichen Zentrum für Informationstechnikgestaltung der Universität Kassel und Astrid Wunsch, User Experience Designerin bei SAP AppHaus Berlin, gewonnen werden. Von ihnen hören die Workshopteilnehmerinnen und -teilnehmer Impulsvorträge zu Gender und Diversity in der Homan-Computer Interaction aus Forschungssicht und über Emotionalisierung von Produkten und User-Interfaces mittels Genderoptimierung.

 

WAS: Workshop „Genderforschung in Human-Computer Interaction“ im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Projekts „Gender x Informatik“
WANN: 14. Dezember 2017, 11:00 bis 15:00 Uhr
WO: Otto-von-Guericke-Universität Magdeburg, Universitätsbibliothek, Gebäude 30, Tagungsraum

 

Die Berücksichtigung der Vielfalt von Menschen und ihrer Ideen in der IT-Forschung macht es notwendig, Gender- und Diversityaspekte auch in der Softwareentwicklung mitzudenken. Wie sind sie in Forschungsprojekte der Informatik zu integrieren? Das Ziel des Projektes ist es, die Vernetzung und den Erfahrungsaustausch voranzubringen, um über Genderaspekte in der Informatikforschung zu sprechen“, unterstreicht Prof. Dr.-Ing. Sanaz Mostaghim vom Institut für Intelligente Kooperierende Systeme und Organisatorin des Magdeburger Workshops. „Das klingt zunächst vielleicht einfach, ist aber der erste und wichtigste Schritt für Informatiker über das Thema zu diskutieren und die Einflüsse zu identifizieren und hoffentlich in der Forschung berücksichtigen.“

Stereotypisch oder typisch Frau?

In ihrer Nutzung haben Frauen Technik, Informatik und Naturwissenschaften vielfältig erobert. Doch wie setzen sie sich aus Geschlechterperspektive mit fachspezifischen Themen, Prozessen und Produktentwicklungen auseinander? Sind Kommunikations-, Kooperations- oder Teamfähigkeit spezifisch weiblich? Werden mit solchen Ansichten Geschlechterstereotypen festgeschrieben? Wird Informatik wirklich als objektives mathematisch-technisches Fach angesehen? Wie können begleitende Instrumente zur Genderforschung in der Informatik wie die Vernetzung, der Erfahrungsaustausch, der Aufbau von internationalen Kooperationen und ein kontinuierlicher Dialog zwischen den Akteurinnen und Akteuren genutzt werden? Eine Plattform für die Beantwortung all dieser Fragen soll das Projekt „Gender x Informatik“ mit den Workshops als Inputgeber zur fachlichen und methodischen Weiterbildung sein. Damit wird ein wichtiger Rahmen geschaffen, in dem sich potentielle Partnerinnen und Partner für künftige Kooperationen begegnen und vernetzen können.

In dem Projekt kooperieren

mehr ...

Globalisierung als Garant für den Frieden?

Seit Lebewesen unsere Erde besiedeln, konkurrieren sie um knappe Ressourcen. Wir Menschen haben dann – so die Lesart von Ökonomen – den Stoffwechsel mit der Natur um eine besondere soziale Komponente, den Tausch, erweitert und schlussendlich in Antike und Mittelalter den mehr oder weniger streng geregelten Handel auf Märkten erfunden, um vernunftgesteuert mit den begrenzten Mitteln umzugehen: Jeder macht das, was er am besten kann und parallel zur Arbeitsteilung organisieren wir den Austausch von Waren zum beiderseitigen Nutzen. Was in den lokalen Zentren sesshafter Kulturen, in der Dorfmitte mit Schneider, Schuster und Schmied begann, wuchs dank des Erfindungsreichtums des Menschen über Jahrtausende zu eng verzahnten globalen Märkten, führte zu einem weltweiten Wettbewerb um Ressourcen, Rohstoffe und Produkte, Waren und Dienstleistungen, Fachkräfte und Technologien.

Am Lehrstuhl für Internationale Wirtschaft der Universität Magdeburg erforscht der Wirtschaftswissenschaftler Prof. Dr. Karl-Heinz Paqué Ursachen, Mechanismen und Auswirkungen dieser weltwirtschaftlichen Verflechtungen. Sein Ziel ist es, Modelle für eine umfassende offene Volkswirtschaft zu entwickeln, die die Zusammenhänge zwischen Globalisierung und dem weltweiten Strukturwandel in nahezu allen Sektoren und Regionen abbilden und mit deren Hilfe die Politik die Rolle des internationalen Handels vor allem für die Schwellenländer analysieren kann.

Prof. Paqué

Prof. Dr. Karl-Heinz Paqué vor dem Kunstprojekt "Zeitmesser" der Pariserin Gloria Friedmann. (Foto: Harald Krieg)

Herr Prof. Paqué, gibt es ein Modell, quasi eine Blaupause, für den Umgang mit den Herausforderungen eines entgrenzten Handels in Zeiten der Globalisierung?

Da würden Sie zu viel verlangen! Ein Modell als Blaupause für die globale Entwicklung, das gab es nie, gibt es heute nicht und wird es nie geben. Modelle sind doch drastisch stilisierte Abbilder einer Wirklichkeit, die höchst komplex ist – und unvorhersehbar. Wer als Wissenschaftler behauptet, im Besitz einer Blaupause für die Realität zu sein, der leidet an Hybris. Modelle sind grobe Orientierungshilfen, mehr nicht. Die Wissenschaft muss bescheiden bleiben und so auch auftreten: Sie kann helfen, die Wirklichkeit sinnvoll zu strukturieren, und das ist für die Politik nützlich. Diese ersetzen kann sie nicht und darf sie nicht.

Globalisierung ist definiert als eine zunehmend arbeitsteilige Verflechtung der Welt. Ist die Diskussion darüber ein Phänomen des 21. Jahrhunderts?

Der Begriff „Globalisierung“ ist recht jung, er kam in den neunziger Jahren des letzten Jahrhunderts auf, das ist gerade mal eine Generation her. Das Phänomen gibt es aber – richtig interpretiert – seit dem 19. Jahrhundert, als mit den enormen Fortschritten in der Transport- und Kommunikationstechnologie die Welt zusammenwuchs. Mit der Erfindung der Dampfmaschine eroberte die motorisierte Schifffahrt die Weltmeere; und die Lokomotiven begannen auf neu gelegten Schienennetzen ihren Siegeszug in Europa und Amerika. In den 1860er Jahren wurde dann das erste transatlantische Telegraphenkabel gelegt. Alles schon lange her!

Welchen Vorteil bringt für den Ökonomen Handel in seiner reinsten Form, also im Sinne von friedlich und zwanglos „Knappheiten zu entgehen“, egal ob zwischen zwei oder 20 Partnern?

Es war der große britische Gentleman-Ökonom David Ricardo, der 1817 nachwies, dass Handel allseitig Vorteile bringt – seine Theorie lehren wir noch heute als Ricardo-Modell. Die Logik des Modells ist auch 200 Jahre nach dessen Entstehen richtig. Es geht darum, dass jeder das tut, was er relativ am besten kann. Das ist das Grundprinzip der Spezialisierung und Arbeitsteilung, was übrigens nicht nur zwischen Nationen, sondern auch unter Regionen und Personen gilt. Es ist auch, wie fast alle großen Theorien, intuitiv einleuchtend: Wer würde einem guten Freund schon empfehlen, einen Beruf zu wählen, in dem er relativ schlechtere Ergebnisse erzielt als andere?

Es gibt in Europa eine indifferente Zukunftsangst, eine Sehnsucht nach einer Welt, die es nicht mehr gibt. Protektionismus und Nationalstaatlichkeit erstarken. Sind wir Menschen mit der globalen Sicht auf die Dinge überfordert?

Das kommt drauf an. Dahinter steckt natürlich eine hochpolitische Frage, denn es geht um eine Herausforderung, und auf diese kann man ganz unterschiedlich reagieren: mit Mut oder mit Angst, also offen oder protektionistisch. Die Erfahrung der Wirtschaftsgeschichte lehrt ganz eindeutig, dass Mut und Offenheit sich langfristig auszahlen, während Angst und Protektionismus auf Dauer zu einem Niedergang führen. Der große liberale Philosoph des kritischen Rationalismus Karl Popper forderte die „offene Gesellschaft“, und dem schließe ich mich voll an. Allerdings müssen wir es schaffen, möglichst alle Menschen auf diesem Weg mitzunehmen.

Globalisierungskritiker argumentieren, dass die Früchte der Globalisierung nur den Starken in der Weltwirtschaft zugutekommen und nur wenigen Entwicklungsländern. Die hätten keine Chance, die globale Strukturpolitik mitzugestalten. Ist das auch Ihre Einschätzung?

Nein, die objektiven Fakten zeigen, dass diese Ansicht falsch ist und immer war. Der Grund: Gerade jene Entwicklungsländer, die sich für den Welthandel öffneten, erlebten anschließend ein beschleunigtes wirtschaftliches Wachstum. Gerade sie holten auf. Nehmen wir die beiden bevölkerungsreichsten Länder der Welt, China und Indien. Erst nach ihrer marktwirtschaftlichen Öffnung in den achtziger Jahren gelang es ihnen, den Hunger zu besiegen und großen Teilen ihrer Bevölkerung einen noch bescheidenen, aber doch zunehmenden Wohlstand zu sichern. Ländern, die sich abschotteten, wie Cuba, Nordkorea oder Venezuela, gelang das nicht.

Der Brexit muss nun organisiert werden und es gibt auch in anderen Ländern nationalstaatliche Tendenzen, ein Wiedererwachen der weltwirtschaftlichen Desintegration. Ist das ein rein ökonomisches Phänomen oder gehen die Auswirkungen von Protektionismus darüber hinaus?

Das ist eine gefährliche Entwicklung, wirtschaftlich und politisch. Wir haben doch schon einmal global eine Phase der Abschottung und des Protektionismus erlebt, und zwar in der Zeit zwischen den beiden Weltkriegen 1914 bis 18 und 1939 bis 45. Die Ergebnisse waren katastrophal: neben den Kriegen eine Weltwirtschaftskrise und das Zerbrechen der Zusammenarbeit zwischen den Nationen, ein vergiftetes Klima. Und dies nach einem Jahrhundert, also zwischen 1815 bis 1914, des weitgehenden Friedens und der einsetzenden Globalisierung! Es ist auch heute nicht sicher, dass die Vernunft siegt. Wir müssen deshalb für eine offene Gesellschaft kämpfen, auch als Wissenschaftler.

Sie beschäftigen sich in Ihrer Forschung vor allem mit der Verbindung zwischen Globalisierung und einem damit verbundenen ökonomischen Strukturwandel, vor allem in den Schwellenländern. Vor welchen besonderen Herausforderungen stehen Brasilien, Indien oder China?

Diese Länder haben durch ihre Öffnung große Fortschritte gemacht. Sie sind das geworden, was in der Wirtschaftswissenschaft „middle income countries“ genannt wird. Brasilien und China schon etwas reicher, Indien noch etwas ärmer. Sie stehen wirtschaftlich vor ähnlichen Problemen: Um an die Spitze der Weltwirtschaft zu kommen, müssen sie mehr eigenständige Innovationskraft hervorbringen, durch Forschung und Entwicklung. Sozial bringt natürlich das schnelle Wachstum Verwerfungen, etwa zwischen Stadt und Land sowie zwischen Gewinnern und Verlierern des Prozesses. Also: kein Paradies, aber Gott sei Dank keine bittere Armut mehr.

Welche Aufgabe kommt Ihrer Meinung nach dem Westen bei der Lösung globaler Herausforderungen wie Klimawandel, Finanzkrisen und internationalem Terrorismus zu?

Die Aufgabe, mit verantwortungsvoller Politik eine Vorreiterrolle zu spielen. Die Übernahme globaler Verantwortung fällt jenen Ländern leichter, die weltweit an der Spitze der Prosperität stehen – und dazu zählen vor allem die Nationen Europas und Nordamerikas, also politisch gesehen „der Westen“. Er muss Schrittmacher sein für eine kluge globale Politik, die Ressourcen und das Klima schont, Finanzkrisen vorbeugt und den Terrorismus bekämpft. Vorreiter sein heißt dabei nicht, die anderen zu bevormunden und mit rücksichtslosen Alleingängen in die Enge zu treiben. Die deutsche Energiepolitik zum Beispiel ist in dieser Hinsicht keineswegs vorbildlich.

Zeitmesser

Das Kunstprojekt "Zeitmesser" der Pariserin Gloria Friedmann steht am Elbufer von Magdeburg und zeigt als Weltzeituhr die Zeiten an den längsten Flüssen der Welt auf allen Kontinenten an. (Foto: Harald Krieg)

Ein wesentliches Merkmal der durch Technologien hervorgerufenen Globalisierung ist die weltweit zunehmende Arbeitsmigration. Gut ausgebildete Fachkräfte verlassen ihre Heimatregion mit der Hoffnung, ihre Bildung anderswo für ein besseres Leben einsetzen zu können. Was können Ökonomen, was kann Politik diesem brain drain ganzer Kontinente entgegensetzen?

Die Frage ist: Aus welchen Ländern kommen die meisten Migranten? Die Antwort ist einfach: Es sind jene Länder, denen es eben nicht wie China und Indien gelingt, die eigene Wirtschaft erfolgreich in die Globalisierung einzufügen. Nordafrika und der Nahe Osten sind die klassischen Beispiele dafür. Es sind Regionen mit zahlreichen Kriegen und Konflikten, wenig politischer Stabilität sowie viel Intoleranz, Gewalt und Hass. Dafür gibt es keine einfachen Lösungen. Das Ziel aber ist eindeutig: Europa und Amerika müssen helfen, diese Länder ökonomisch auf einen Wachstumspfad zurückzuführen. Die Hauptarbeit muss aber in den Ländern selbst erledigt werden.

America first!, so die Devise des US-amerikanischen Präsidenten Donald Trump. Welche Gefahren birgt ein Protektionismus à la Trump und Putin im globalen Verteilungskampf? Was sind weitere Folgen, wenn der wirtschaftliche Austausch zwischen Staaten unterbrochen wird?

„America First“, das ist eine sehr kurzsichtige populistische Devise. Sollte Donald Trump sie als protektionistische Leitlinie ernsthaft weiterverfolgen, so wird er vor allem seinem eigenen Land schaden. Denn auch die USA leben vom internationalen Handel. Sie sind eine Hightechnation, die viel exportiert. Schlimmer noch wären die Folgen für die Welthandelsordnung: Wenn sich die USA nicht an die Regeln halten, wird es keiner mehr tun. Deshalb muss vor allem Europa den liberalen Status Quo verteidigen. Was Russland betrifft, hängt vieles von der Einhaltung des Völkerrechts ab: Nur, wenn das Land sich an frühere Verträge hält, kann es auch ein guter Handelspartner werden.

Welche Rolle kann Politik spielen, um die Herausforderungen der Globalisierung wie Klimawandel, Finanzkrisen und internationaler Terrorismus anzugehen? Können Gesetze und Rahmenbedingungen Märkte und einen fairen Ausgleich regional divergierender Interessen friedlich steuern?

Oft wird gesagt, der Nationalstaat sei völlig machtlos gegenüber den Kräften der Globalisierung. Das stimmt nicht. Allerdings kann der Kampf gegen Klimawandel, Finanzkrisen, Terrorismus und weitere Herausforderung nur erfolgreich sein, wenn es eine internationale Zusammenarbeit in diesen Fragen gibt. Alleingänge helfen nicht weiter. Das Entstehen einer kooperativen politischen Atmosphäre ist deshalb von zentraler Bedeutung. Da haben wir leider in den letzten Jahren schwere Rückschläge erlebt – mit dem Brexit und Trump, aber vor allem mit Putin, Erdogan und vielen autokratischen und nationalistischen Kräften, die Aufwind bekamen.

Ob Klimapolitik, Steuerpolitik, Sozial- oder Bildungspolitik: In allen Bereichen gibt es Sachverständigenräte, Wirtschaftsweise, Beratungsgremien und Kommissionen. Kommen wissenschaftliche Forschungsergebnisse auf diesem Wege in Zeiten der „Alternativen Fakten“ in der Politik an?

Wir dürfen uns nicht entmutigen lassen, gerade als Wissenschaftler. Wir müssen den „fake news“ unerschrocken und unermüdlich die wahren Fakten entgegensetzen. Wir müssen das sachlich tun – in Fachgremien und Kommissionen. Aber vielleicht ist es noch wichtiger, dass wir die Öffentlichkeit emotional ansprechen. Die Wahrheit – „the truth“, das ist doch nicht irgendein Luxus, den sich ein paar Intellektuelle leisten. Es geht um viel mehr, nämlich den Geist der Aufklärung in einer freiheitlichen Gesellschaft. Dafür müssen wir als Wissenschaftler draußen in der rauen Wirklichkeit geradestehen. Also: Raus aus dem Elfenbeinturm und rein ins Meinungsgetümmel.

Herr Professor Paqué, vielen Dank für das Gespräch!

mehr ...

Das macht Lust auf Schule

Flori hat ein Problem mit seiner Hausaufgabe in Biologie. Er erzählt seinen Freunden Tim und Lea, dass er das Wachstum eines Frühblühers beschreiben soll, aber total keine Lust darauf hat, alles aufzuschreiben. Gemeinsam kommen die drei auf die Idee, das Leben der Pflanze mit einem Daumenkino als Trickfilm darzustellen und so die lästige Schreiberei zu umgehen.

Das ist eine der Lernsequenzen der multimedialen Lern-Lehr-Plattform CoSiTo. Entwickelt und programmiert haben sie Professor Dr. Frank Bünning, Lehrstuhl Technische Bildung und ihre Didaktik an der Fakultät für Humanwissenschaften der Otto-von-Guericke-Universität Magdeburg, und sein Team speziell für den Lehrplan an Sekundarschulen des Landes Sachsen-Anhalt. „Ziel des Forschungsvorhabens CoSiTo ist es, durch neue Ansätze und Instrumente den Sekundarschülerinnen und -schülern ein verbessertes grundlegendes Technikverständnis zu vermitteln und sie für Technik sowie technische Ausbildungsberufe zu begeistern“, erläutert Technikdidaktiker Bünning. „Ein wichtiges Unterrichtsfach ist da der Technikunterricht, leider aber oft negativ besetzt! Die fehlende Begeisterung einer großen Anzahl von Schülern können wir uns aber immer weniger leisten; hat sie doch einen enormen Einfluss auf die Entscheidung für oder gegen einen Beruf in einem technischen Bereich und kann den Fachkräftemangel entweder ver- oder entschärfen.“ Mit CoSiTo, deren Entwicklung und Validierung vom Bundesministerium für Bildung und Forschung mit ca. 900.000 Euro unterstützt wird, bieten die Magdeburger Fachdidaktiker eine innovative Lehr- und Lern-Plattform für einen zeitgemäßen Technikunterricht an.

Technik_Header

Im Schüler-Techniklabor SchüLaTech lernen Lehramtsstudierende, die Neugierde und Technikbegeisterung junger Menschen zu wecken. (Foto: Harald Krieg)

Digital Natives und Technik

CoSiTo enthält derzeit sieben Lernsequenzen für die Klassenstufen 5 bis 12, die beispielsweise von der Planung einer Klassenfahrt und der Biologiehausaufgabe, über den Bau eines Kleiderhakens oder einer Wechselgeldrückgabe wie beim Parkscheinautomaten bis hin zur Planung eines Carports reichen. „Auf unserer Lernplattform geht es um reale Probleme. Die Schülerinnen und Schüler erkennen klar den Nutzen des erworbenen Wissens und steigern so erwiesenermaßen ihre Fähigkeiten“, unterstreicht Professor Bünning. Die Auswahl der lebensnahen Szenarien wurde gemeinsam mit Studierenden des Lehramts Technik getroffen und erprobt. Ein Video – mal mit Schülern gedreht, mal als Animationsfilm – führt in eine Problemstellung ein und zeigt erste Lösungsansätze auf. Im Anschluss daran werden die Schülerinnen und Schüler Schritt für Schritt an eine Lösung des Problems herangeführt. Dieser Prozess wird durch verschiedene Materialien und Medien unterstützt. Für die Lehrkräfte gibt die Plattform Hinweise zum Lehrplan, beispielsweise, dass mit den Lerneinheiten für die 5. Klasse Grundbegriffe der Arbeit mit dem Computer eingeführt werden und der Grundaufbau eines Computerarbeitsplatzes erläutert wird und zu vermitteln ist, wie die Desktopoberfläche einzurichten und die geeignete Software entsprechend der Aufgabenstellung auszuwählen ist. Außerdem werden Empfehlungen gegeben sowohl zu den unterrichtlichen Voraussetzungen, wie der sichere Umgang der Schüler und Schülerinnen mit Tastatur, Maus, Programmen, Ordnern, Dateien, als auch zu den technischen Voraussetzungen, die für die jeweilige Lernsequenz erforderlich sind. Zudem gibt es Hinweise zur Bewertung der Unterrichtseinheit.

Schiefertafel und Tablet (c) Stefan BergerWir versuchen bisher vergeblich, mit Kreidedidaktik und Frontalunterricht die mit Smartphones heranwachsenden Digital Natives für Technik zu interessieren. Wie gut das funktioniert, können wir nicht zuletzt an den vielen unbesetzten Lehrstellen beispielsweise für Elektroniker und Elektronikerinnen, Metallbauer und -bauerinnen sowie Anlagenmechaniker und -mechanikerinnen im Bereich Sanitär, Heizung und Klima sehen. Wir wissen, dass Schülerinnen und Schüler insbesondere mit innovativen didaktischen Ansätzen moderne Technik besser durchdringen und so etwas wie Technikbegeisterung entwickeln können“, unterstreicht Professor Frank Bünning.

Der Wissenschaftler und sein Team griffen bei der Entwicklung der multimedialen Lehr-Lern-Plattform bundesweit erstmals das didaktische Konzept des sogenannten Situierten Lernens auf. Die Anfang der 1990er Jahre entwickelte Theorie betrachtet die soziale Dimension individuellen Lernens und bindet das Lernen in soziale Kontexte ein. Wissen kann nicht nach dem Prinzip „Nürnberger Trichter“ vom Lehrenden auf die Lernenden transferiert werden, so dass am Ende der Schüler das gelernte Wissen in genau der selben Form besitzt wie sein Lehrer. Vielmehr spielt die soziale Interaktion eine wesentliche Rolle, das heißt sowohl für Lernende als auch für Lehrende gemeinsam Erfahrungen machen und Kompetenzen entwickeln. In CoSiTo werden nach diesem Prinzip theoretische und technische Lerninhalte miteinander verknüpft und in für den Technikunterricht relevanten multimedialen Lernszenarien dargestellt. Der Ansatz des Situierten Lernens fände in Deutschland leider bislang nur wenig Beachtung, schätzt Didaktiker Bünning ein. Bisher existiere keine Plattform, um diese Theorie, insbesondere im Technikunterricht, umzusetzen und zu evaluieren.

Digitalisierung liefert die Grundlage für eine zeitgemäße Didaktik im Unterricht

Zurzeit wird der Prototyp von CoSiTo, der sowohl auf Computern als auch auf Smartphones und Tablets läuft, an 13 sachsen-anhaltischen Schulen getestet. Begleitend validieren die Fachdidaktiker die Lernszenarien von CoSiTo und entwickeln sie in ständigem Abgleich mit den Curricula weiter. Sie führen in einer quantitativen Studie Schüler- und Lehrerinterviews durch, prüfen die Übertragbarkeit des Konzepts auf die Aus- und Weiterbildung sowie die Hochschulbildung und beurteilen die Marktfähigkeit. Doch vielerorts in Sachsen-Anhalt gibt es an den Schulen Internetverbindungen nur auf Sparflamme und veraltete Technik – nichts mit digitalen Multifunktionstafeln statt Kreidetafeln oder Tablet statt Schulheft. Digitalisierung liefert die Grundlage für eine zeitgemäße Didaktik im Unterricht. Für die Digitalisierung der Schulen stellen Land und EU im Zeitraum bis 2023 insgesamt 13,3 Millionen Euro bereit.

Doch auch die Lehrerinnen und Lehrer, die als Lernbegleiter ihren Schülern und Schülerinnen Orientierung in der digitalisierten Welt geben und sie befähigen, digitale Medien gezielt für den eigenen Lernprozess einzusetzen, müssen fit sein. 40 Prozent der Lehrer in Deutschland jedoch haben jahrelang keine Fortbildung zu neuen Medien im Unterricht besucht, berichtet die Wochenzeitung DIE ZEIT und beruft sich dabei auf das sogenannte MINT-Nachwuchsbarometer. Forscher um den Potsdamer Techniksoziologen Ortwin Renn haben diesen Bericht zur Lage der MINT-Fächer (Mathematik, Informatik, Naturwissenschaften, Technik) vorgelegt. 73 Prozent der Neuntklässler nutzen zu Hause fast täglich den Computer, jedoch nur ein Prozent von ihnen tue das auch in der Schule. In den Schulen fehle es an Personal, um die Geräte zu warten, und vor allem fehle es an didaktischen Konzepten, wie dem digitalen Wandel zu begegnen sei. Deutschlands Lehrer sind jedoch keine Technikmuffel, das bestätigt der Bericht. 95 Prozent finden den Einsatz von modernen Medien im Unterricht grundsätzlich gut. „Smartphones und Apps sind doch inzwischen fester Bestandteil im Leben der Schülerinnen und Schüler, im Unterricht aber werden sie kaum genutzt“, schätzt Marion Pohl ein, die am Lehrstuhl für Technische Bildung und ihre Didaktik gerade an ihrer Promotion arbeitet und sich dem Thema intensiv widmet.

Smartphones kreativ im Unterricht einsetzen

Gemeinsam mit dem Zentrum für Lehrerbildung der Universität Magdeburg hat der Lehrstuhl ein neues Weiterbildungsformat für Lehrende aller Schulformen und Fächer aufgestellt: das App-Labor, kurz AppLab. In Tandems aus Lehrenden und Lehramtsstudierenden wurden in einer ersten zweitägigen Weiterbildung modellhaft mit einer App die Einsatzmöglichkeiten von Smartphones für Übungs- und Erkenntniszwecke ausgelotet. Im AppLab wird unter Laborbedingungen simuliert, was im Unterricht passieren kann. Ziel ist es, einen möglichen späteren Unterrichtseinsatz sicherer und gezielter gestalten zu können. Die erste Test-App ist war eine Schnitzeljagd, in deren Verlauf verschiedenste Aufgaben gelöst werden müssen, um das Ziel zu erreichen. Sie kann aus einen Modulbaukasten individuell, angepasst an Entwicklungsstand, Altersstruktur, Lerntempo oder Interessenlage der Schüler und Schülerinnen, zusammengestellt werden. Programmierkenntnisse sind nicht nötig.
In einer zweiten Weiterbildung werden die Lehrkräfte nach mehrmonatiger Arbeit mit der App Resümee ziehen, Probleme, Fragen, Beobachtungen und Erfahrungen diskutieren. „Der Einsatz von Apps im Unterricht soll immer nur Unterstützung für die Lehrerinnen und Lehrer sein“, unterstreicht Marion Pohl. „Das gute alte Schulbuch wird es auch zukünftig noch geben. Doch wir möchten die Lehrkräfte für den Einsatz neuer Medien sensibilisieren, ihnen die Scheu davor nehmen und sie vor allem dazu befähigen, ihren Schülerinnen und Schülern Technikbegeisterung mitzugeben. Denn noch immer gibt es an den Schulen keine einheitlichen Standards. Vieles hängt von der Motivation der jeweiligen Lehrer ab.“ Doch die Weiterbildung vermittelt noch mehr, beispielsweise Grundlagen des Datenschutzes und, dass auch das Kleingedruckte in den AGBs der App-Anbieter gelesen werden muss, dass Apps mit dem USK-Logo der freiwilligen Selbstkontrolle der Computerspielewirtschaft und der entsprechenden Altersangabe die Unbedenklichkeit bescheinigt wird oder die Sensibilisierung für die Dosis der Nutzung von Facebook, Instagram oder WhatsApp, denn ein kompetenter Umgang damit ist nicht gefährlich.

Technikbegeisterung junger Menschen befeuern

TechnikNeben der Weiterbildung richtet der Lehrstuhl für Technische Bildung und ihre Didaktik den Fokus auf die Ausbildung der Lehramtsstudierenden. Im sogenannten SchüLaTech, dem Schüler-Techniklabor, das von der Landeshauptstadt Magdeburg gefördert wird, werden angehende Techniklehrer und -lehrerinnen dafür sensibilisiert, das Technikinteresse bei Schülerinnen und Schülern zu wecken. Hier sollen sie bereits vom ersten Semester an lernen, die MINT-Begeisterung junger Menschen zu befeuern. Hier haben sie die Möglichkeit, ihr erworbenes Wissen anzuwenden, unterrichtspraktische Erfahrungen zu sammeln, sich auszuprobieren und auf das Berufsleben vorzubereiten. 750 Schülerinnen und Schüler besuchten 2016 das SchüLaTech. „Wir legen Wert darauf, dass es sich um praxisnahe Technik handelt, mit der im SchüLaTech gearbeitet wird. Zwar sind unsere Versuchsaufbauten kleiner als in der Industrie, doch die elektronische Steuerung und die pneumatischen Antriebe funktionieren auf die gleiche Weise“, sagt Prof. Dr. Frank Bünning. Neben dem modularen Bau von Anlagen können die Schüler beispielsweise auch herausfinden, worin sich eine Glühlampe von LED-Leuchtmitteln unterscheidet, wie der Lotoseffekt wirkt oder ein technischer Muskel arbeitet. Zurzeit stehen 12 Unterrichtskonzepte zwischen 45 und 90 Minuten und ein Projekttag zum Thema Automatisierungstechnik zur Verfügung.

Wie heißen Menschen, die fesselnd Wissen vermitteln? Richtig: Lehrer und Lehrerinnen. Sie machen mit Begeisterung Schule, machen unsere Kinder klüger und fit für die Zukunft. Das didaktische Konzept „einer steht vorn und erzählt, die Klasse hört zu und schreibt mit“ ist dabei Schnee von gestern. Wissen entsteht durch Austausch und Anwendung. Multimediale Technik ersetzt Kreidedidaktik. Der Lehrstuhl für Technische Bildung und ihre Didaktik hält dafür verschiedene Angebote bereit, sowohl für eine zukunftsweisende Weiterbildung von Lehrkräften als auch für eine hervorragende Ausbildung künftiger Lehrergenerationen sowie die Förderung des Technikinteresses von Schülerinnen und Schülern, um langfristig Fachkräfte in den MINT-Berufen und den entsprechenden Studienrichtungen verfügbar zu haben.

Wussten Sie schon, dass...

... Digital Natives, zu Deutsch „digitale Ureinwohner“, Personen sind, die mit digitalen Technologien aufgewachsen sind? Sie beherrschen den Umgang mit diesen Technologien, ohne ihn bewusst erlernt zu haben. Die Nutzung ist für sie selbstverständlich und die Realität schon von früh auf mit der digitalen Welt verknüpft. Damit grenzen sie sich von den Digital Immigrants ab, die diese Technik erst im Erwachsenenalter kennengelernt haben.

... mit App Anwendungssoftware (Application software) im Allgemeinen bezeichnet wird? Im deutschen Sprachraum wird der Terminus „App“ oft mit Anwendungssoftware für mobile Endgeräte wie Smartphones und Tablets gleichgesetzt. Es gibt sie für die verschiedensten Bereiche von Office-Anwendungen, Spielen, Ratgebern bis hin zu Fitness-, Einkaufs-, Musik- oder Nachrichten-Apps.

... mit dem „Nürnberger Trichter“ eher scherzhaft eine mechanische Weise des Lernens und Lehrens bezeichnet wird, die vor allem mit der Vorstellung verbunden ist, ein Schüler/eine Schülerin könne sich Lerninhalte fast ohne Aufwand und Anstrengung „eintrichtern“ und ein Lehrer könne auch dem „Dümmsten“ alles beibringen? Der Ausdruck geht auf den Nürnberger Schriftsteller Georg Philipp Harsdörffer (1607 bis 1658) zurück.

mehr ...

Die Motorenflüsterer

Bei 120 Dezibel ist für die meisten von uns Schluss. Diese Schmerzschwelle wird beim Start eines Flugzeugs in unmittelbarer Nähe erreicht. Zugegeben, keine gewöhnliche Geräuschkulisse, aber auch weit weniger eindrucksvolle Technik hat unseren Alltag akustisch verändert. Ob Laubsauger oder elektrische Zahnbürste, ob Rasenmäher oder Klimaanlage, Windräder oder elektrische Warnsignale – sie alle hinterlassen hörbare Spuren.

Doch wann wird ein Geräusch zu Lärm? Physikalisch gesehen gibt es keinen Unterschied, dennoch ziehen Psychoakustiker wie Jesko Verhey eine klare Linie: Lärm stört! Ein Geräusch, so der Professor für Experimentelle Audiologie an der Hals-Nasen-Ohren-Uniklinik Magdeburg, ist eine neutrale Beschreibung von Schall, beim Lärm wird es persönlich, weil alle Menschen dazu eine unterschiedliche Auffassung haben. „Lärm ist aber nicht immer nur laut“, weiß der Physiker. „Die Geräuschqualität ist für unser Empfinden entscheidend.“ Dass das Kreischen einer Kreissäge Lärm sei, würde wohl niemand bestreiten. „Aber weder ein Zahnarztbohrer noch ein Fingernagel, der langsam über eine Wandtafel zieht, sind besonders laut.“ Trotzdem würden viele diese Geräusche als Lärm empfinden.

Vom Aufspüren von Luft- und Körperschall

Ein großer Teil unserer urbanen Geräuschkulisse geht auf Kosten des Individualverkehrs. Egal, welches Modell, welcher Motor uns von A nach B bringt: Sobald Autos fahren, werden sie laut. „Dabei ist der Antrieb aber nur für einen geringen Teil des Verkehrslärms verantwortlich“, erklärt Prof. Dr.-Ing. Hermann Rottengruber, Leiter des Lehrstuhls Energiewandlungssysteme für mobile Anwendungen am Institut für Mobile Systeme. „Alle Antriebe haben einen Luftschall, also die durch die Luft übertragenen Schallwellen, und einen Körperschall, also alles, was Fahrer oder Fahrerin an Schwingungen oder Rütteln im Fahrzeug wahrnehmen“, so der Maschinenbauer. „Beim Verbrennungsmotor ist es die Anzahl der Kolben, die die Geräuschkulisse beeinflussen. Beim E-Motor ist es die Anzahl der Wicklungen, die dort eine sehr hochfrequente Anregung erzeugt. Der Motor dreht sich ja in seinem eigenen Magnetfeld, da sind verschiedene Pole definiert und immer, wenn er einen Magnetfeldwechsel macht, kommt es zu einem Geräusch, was im Fahrzeuginnenraum über den Körperschall zu einem lästigen Luftschall wird. Auch Brennstoffzellenanwendungen haben mechanische Transmissionsgeräusche und ein akustisches Verhalten.“

Motorengeraeusche_Untersuchung

Sebastian Schneider (li.) und Dr.-Ing. Tommy Luft im Akustikprüfstand vor einem Versuchsmotor. (Foto: Harald Krieg)

Professor Rottengruber und seine Institutskollegen beschäftigen sich seit vielen Jahren intensiv mit der Akustik von Fahrzeugen. Im Rahmen verschiedener Forschungsprojekte arbeiten Dr.-Ing. Tommy Luft und Sebastian Schneider in seinem Team daran, Antriebs- und Fahrzeuggeräusche präzise zu analysieren und zu optimieren.

Fahrzeuge in der EU müssen akustische Grenzwerte einhalten, welche mithilfe eines speziellen Messverfahrens abgenommen werden. Dieses Messverfahren beinhaltet neben einer Beschleunigungskomponente auch die Einbeziehung einer Konstantfahrt des Fahrzeugs.“

Der Grenzwert liege zurzeit bei 72 Dezibel für PKW unter 120 kW/t. Bei verbrennungsmotorisch angetriebenen Fahrzeugen bilde bis circa 40 km/h bei Konstantfahrten und bei starken Beschleunigungen bis 80 km/h der Motor die Hauptgeräuschquelle, so der Ingenieur. Darüber dominierten innen und außen Wind- und Rollgeräusche, verursacht von Karosserie und Reifen, abhängig von Fahrbahn, Fahrwerk, Gewicht und Geschwindigkeit des Fahrzeugs. Elektrogetriebene Fahrzeuge sind zwar im Stadtverkehr leiser, aber werden sie schnell, werden sie auch laut, weiß Dr. Luft. „Es ist für den Laien schwer vorstellbar, aber bei einer Geschwindigkeit ab circa 40 km/h fährt ein Elektrofahrzeug genauso laut wie ein verbrennungsmotorisch angetriebenes Fahrzeug.“

Maschinenbauer und Psychoakustiker machen unsere Städte leiser

Um die Geräusche von Motoren beeinflussen und modellieren zu können, hören die Magdeburger Maschinenbauer aufmerksam in die Motoren hinein, spüren Schallpfaden nach, identifizieren präzise einzelne Geräuschquellen im Gesamtsystem. „Wir als Ingenieure ermitteln also erst einmal die Fakten, die physikalisch messbaren Größen und Werte. Wir machen reine Antriebsakustik, egal, welcher Motor da vorne dranhängt“, erklärt Professor Rottengruber und zeigt in der Laborhalle 14 auf einen vier mal vier Meter großen technischen Aufbau, den Motorprüfstand. Ein Motorprüfstand ist ein abschließbarer Messraum, in dem ein Motor unabhängig von seinem normalen Einsatzumfeld untersucht werden kann. Neben Verbrauchs- und Abgasmessungen werden hier auch akustische Messungen durchgeführt. Zusätzlich mit schalldämpfendem Material ausgekleidet, können Motoren angedockt und akustisch vermessen bzw. kann analysiert werden, welche Vibrationen und Schwingungen durch seinen Antrieb entstehen. Wie bei einem Herz-EKG erfassen bis zu achtzig Sensoren hochpräzise jede akustische Äußerung des Motors, spüren das kleinste Klopfen auf, messen für den Menschen nicht mehr hörbare Frequenzen und zerlegen sie in Einzelgeräusche.

„Wir erfassen hier einerseits Vibrationen und Schwingungen von der Körperoberfläche des Motors und andererseits die durch die Luft übertragenen Schallwellen der entstehenden Geräusche“, so Sebastian Schneider, der am kürzlich abgeschlossenen und von der Arbeitsgemeinschaft industrielle Forschungsvereinigungen AiF geförderten Forschungsprojekt „Körperschallbasierte Dieselmotorenregelung“ maßgeblich beteiligt war. Vier Mikrofone haben die Fahrzeugakustiker in einem Meter Abstand zum Motor positioniert, um den Luftschall zu messen. Darüber hinaus sind die Körperschallsensoren auf dem Motor angebracht. „Über diese Körperschallaufnehmer werden die Vibrationen an der Oberfläche des Motors erfasst. Diese Vibrationen lassen Rückschlüsse darauf zu, was sich im Innern des Motors abspielt.“

Neben dem hochmodernen Akustikprüfstand nutzen die Geräuschexperten auch sogenannte Mikrofonarrays, um Schalldruckverteilungen vor abstrahlenden Motorflächen zu erfassen. Mit 60 Mikrofonen bestückt, können mithilfe dieses aus filigranen Metallstäben bestehenden Konstrukts, Schallquellen lokalisiert werden.

Haben dann die Ingenieure vom Institut für Mobile Systeme die Fahrzeug- und Motorengeräusche akribisch aufgespürt und digital verarbeitet, gelangen sie in die Hals-Nasen-Ohren-Universitätsklinik zum Hörforscher Prof. Dr. Jesko Verhey. Mithilfe moderner Hörakustik kann er die Geräusch-Datensätze charakterisieren und klassifizieren. Er interpretiert Motorengeräusche und analysiert mithilfe aufwändiger Testreihen wie scharf, wie laut, wie impulshaft ein Geräusch ist, sprich: wie menschliche Ohren es wahrnehmen. Es sind Kategorien wie kernig, akzeptabel, laut, leise oder lästig, mit denen Professor Verhey die Eindrücke seiner Probanden beschreibt. Doch sind es nicht nur Menschenohren, denen Verhey eine Geräuschkulisse zur Bewertung anbietet. Auch künstliche Ohren kommen zum Einsatz. So bilden im Forschungslabor der Experimentellen Audiologie 31 Lautsprecher im Abstand von zwei Metern einen Halbkreis um einen mit hochsensibler Technik gefüllten grauen Kunstkopf, dessen mit hochsensiblen Sensoren ausgestattete Ohren exakt erfassen, wo Schallwellen, Impulse und Frequenzen in welcher Intensität auftreffen.

Hoerakustik_Prof. Verhey

Prof. Dr. Jesko Verhey neben dem mit hochsensibler Technik gefüllten grauen Kunstkopf, der erfasst, wo Schallwellen, Impulse und Frequenzen in welcher Intensität auftreffen. (Foto: Harald Krieg)

Die Ergebnisse des Psychoakustikers bilden anschießend die Basis für die Ingenieure, bestehende Motoren und Fahrzeuggeräusche zu verändern. „Wenn die Probanden Geräusche als störend oder inakzeptabel empfunden haben, greifen wir in den Antriebsprozess ein, beeinflussen zum Beispiel Einspritzmengen oder -zeiten und machen so das Geräusch angenehmer. Nicht immer nur leiser, aber angenehmer“, betont Dr. Tommy Luft.

Entscheidend dafür sei, ergänzt sein Kollege Schneider, bei den Verbrennungsmotoren Abgase und Verbrauch gleichzeitig zu erfassen und dem Motorengeräusch gegenüberzustellen. Schließlich suchen die Maschinenbauer nach dem Optimum im Zusammenspiel der voneinander abhängigen Kategorien Leistung, Verbrauch, Abgase und Geräusch. Sie tüfteln dafür an neuen Materialien und Beschichtungen, prüfen Dämmungen oder Schwingungsdämpfer, testen das Einkapseln von Motoren oder entwickeln innovative Regelungsstrategien. Die Herausforderung ist es, alle Möglichkeiten zur Reduzierung von Geräuschen auf Kosten, Effizienz, Umweltverträglichkeit und Machbarkeit zu prüfen. „Neue Materialien mögen exzellent dämmen, bedeuten aber oft eine Gewichtszunahme, was dazu führt, dass Verbrauch und Schadstoffemission des Motors ansteigen“, weiß Schneider.

Neue Technologien werden unsere Hörgewohnheiten verändern

Aber Geräusche im Stadtverkehr sind auch überlebenswichtig. Wir haben gelernt, ihnen zu folgen und uns zu orientieren. Sei es, dass wir beim Aufheulen des Motors in den nächsten Gang schalten, bei ungewöhnlichem Klappern in die nächste Werkstatt fahren oder Warnsignale sofort als Notfall erkennen.

Wenn in Zukunft Verbrennungsmotoren im Individualverkehr weniger werden und auch der öffentliche Nahverkehr mehr und mehr über E-Mobile läuft, wird es stiller um uns werden. Dann, blickt Hörexperte Verhey voraus, greifen unsere erlernten Hörgewohnheiten nicht mehr, fehlen akustische Warnungen und die Gefahr von Kollisionen mit Fußgängern und Radfahrern steigt. Geräusche in und um langsam fahrende Elektroautos enthalten zwar hochfrequente Anteile aus der Leistungselektronik, wie Pfeifen oder Heulen. Aber sowohl dem Fahrer als auch dem Fußgänger fehlt das Gefühl für Betriebspunkte, die wir interpretieren können, wie z. B. die vibroakustischen Signale verbrennungsmotorisch angetriebener Fahrzeuge, die über Veränderungen von Drehzahl und Geschwindigkeit informieren. „Autos werden dann zwar leise, aber auch gefährlich“, vermutet Verhey. „Fehlen Geräusche, fehlen uns wichtige Informationen.“

Künftig wird es also auf dem Gebiet der Fahrzeugakustik um ganz andere Fragestellungen gehen. Denn mit neuen Antriebsmodellen gehen gelernte Emotionen und Handlungen durch ungewohnte akustische Signale verloren. Maschinenbauer und Hörforscher müssen sich in Zukunft dann gemeinsam darum kümmern, dass Mobilität und Mensch kompatibel bleiben. Da werden wir Menschen auch umlernen müssen, so der Wissenschaftler und ist optimistisch. „Das ginge aber, denn die Straßenbahnfahrer können es auch, die Bahnen sind heute fast alle elektrisch. Bei der Bundesbahn ist das nicht anders. Das würden wir schon hinkriegen. Man wird den Klang künftig, zumindest in der Übergangszeit, auch akustisch verändern müssen bei Hybrid- oder Elektrofahrzeugen, denn die haben ja keine Gangschaltung mehr.“

Ein gutes Beispiel sei der Range-Extender, so Professor Verhey. „Ein Range-Extender kann die Reichweite von Elektrofahrzeugen verlängern, in dem er sich einschaltet, wenn es mit der Reichweite knapp wird. Der Fahrer hat darüber aber keine Kontrolle, was störend wirken kann. Künstlich erzeugte Geräusche könnten hier helfen.“

Man müsse kein Prophet sein, um zu sehen, dass die Bedeutung des ausschließlich verbrennungsmotorischen Antriebs in der individuellen Mobilität abnehmen werde, resümiert Ingenieur Hermann Rottengruber. „Es gibt ein aktuell viel diskutiertes Szenario, vielleicht bis 2050 komplett elektrifiziert in der Personenmobilität unterwegs zu sein. Allerdings wird dieses Mobilitätsszenario mit unserer heutigen Individualmobilität nicht mehr viel zu tun haben. Denn die Verkehrs- und Energiewende bedeutet künftig nichts Anderes als Energieeinsparung und Schadstoffreduktion durch Verkehrsvermeidung.“

Wussten Sie schon, dass...

Grafik_Akustik

... das Ohr das einzige Sinnesorgan ist, dass wir nicht abschalten können? Geräusche dringen immer vor. Besonders lästig sind für uns schrille Geräusche, aber auch andere Schalle können lästig sein, wenn sie ungewollt unsere Aufmerksamkeit erregen, wie z. B. sich zeitlich stark ändernde Schalle. Ein gutes Beispiel ist der tropfende Wasserhahn. Auch das gesprochene Wort ist ein zeitlich sich stark ändernder Schall. Hier zeigt sich, dass der gleiche Schall mal lästig und mal nicht lästig sein kann. Wenn wir mit jemandem reden, ist die Sprache wichtige Informationsquelle, wenn wir ihr aber bei der Arbeit ungewollt ausgesetzt sind, dann kann sie stark stören.
Grafik_Akustik1 ... sich das Fahrzeuginnengeräusch aus zwei Schallanteilen zusammensetzt? Es sind der Luftschall und Körperschall. Der Luftschall besteht aus Schallwellen, die von einer Geräuschquelle stammen und sich über die Luft verbreiten. Sie gelangen z. B. vom Motor durch Öffnungen zum Fahrer. Der Körperschall entsteht vor allem durch Erschütterungen in Maschinen, die durch Vibration übertragen werden. Im Gegensatz zum Luftschall kann man Körperschall besser fühlen. Wird Luftschall durch Druckschwingungen der Luft übertragen, z. B. bei Sprachkommunikation, breitet sich Körperschall durch Schwingungen in festen Körpern aus, z. B. beim Einschlagen eines Nagels in eine Hauswand.

mehr ...

Millionenförderung für die Erforschung der neurobiologischen Grundlagen des Entscheidens

Der Europäische Forschungsrat (ERC) hat dem Psychologen PD Dr. rer. nat. Gerhard Jocham vom Center for Behavioral Brain Sciences (CBBS) der Otto-von-Guericke-Universität Magdeburg und des Leibniz-Institutes für Neurobiologie (LIN) Magdeburg einen mit 1,9 Millionen Euro dotierten ERC Consolidator Grant bewilligt und seinem Forschungsprojekt „Decision making: from neurochemical mechanisms to network dynamics to behavior“ (NEODYNE) zu den neurobiologischen Grundlagen des Entscheidens wissenschaftliche Exzellenz bescheinigt. Dr. Gerhard Jocham ist damit europaweit einer von 329 exzellenten Wissenschaftlern, die mit insgesamt 630 Millionen Euro vom ERC in dieser Form für die nächsten fünf Jahre gefördert werden.

Portrait_Jocham_Gerhard (c) Harald Krieg-9856PD Dr. Gerhard Jocham (Foto: Harald Krieg / Universität Magdeburg) 

In der modernen Entscheidungsforschung werden im Wesentlichen zwei verschiedene Ansätze verfolgt. In dem einen wird die Aktivität einzelner Nervenzellen, deren Verbindungen und die Rolle verschiedener Moleküle beim Entscheiden untersucht. Diese Forschung spielt sich meist im Tierexperiment ab. Der andere Ansatz untersucht die Aktivität größerer Nervennetze beim Entscheiden und die Verrechnungsschritte, die in diesen Netzen stattfinden. Diese beiden Forschungsrichtungen existieren weitgehend getrennt voneinander. Daher ist nahezu unbekannt, wie sich Veränderungen auf der mikroskopischen Ebene, also der Ebene einzelner Nervenzellen und Moleküle, auf die makroskopische Ebene, die Ebene größerer Nervenzellverbände, übersetzen und so letztendlich Entscheidungen kontrollieren.

„In dem Projekt soll die Brücke zwischen den beiden Ebenen geschlagen werden. Computermodelle werden verwendet, um vorherzusagen, wie sich Veränderungen auf der molekularen Ebene auf der Ebene größerer Zellverbände niederschlagen und sich letztendlich auf das Verhalten auswirken“, erläutert Dr. Gerhard Jocham. „Diese Vorhersagen werden mit experimentellen Daten zusammengebracht, die wir mithilfe der Magnetoenzephalographie (MEG) gewinnen. Sie ermöglicht uns die Messung neuronaler Aktivität kortikaler Netzwerke beim Menschen mit einer Auflösung im Millisekundenbereich. So können wir die neuronale Dynamik, die einer Entscheidung zugrunde liegt, zeitlich aufgelöst nachverfolgen. Um nun zu erfassen, welchen Effekt die Aktivität verschiedener Botenstoffe auf die neuronale Dynamik und das Entscheidungsverhalten haben, werden diese entweder gemessen oder gezielt moduliert.“ Für dieses anspruchsvolle Projekt findet Dr. Gerhard Jocham am CBBS Magdeburg die benötigte Forschungsinfrastruktur.

Neben den grundlagenwissenschaftlichen Erkenntnissen zu Entscheidungen kann dieses Projekt auch für klinische Fragestellungen interessante Ergebnisse bringen. Beeinträchtigungen beim Entscheiden sind ein wesentliches Merkmal einiger psychiatrischer Erkrankungen. Darüber hinaus finden sich bei vielen psychiatrischen Erkrankungen einerseits abnormale Muster neuronaler Dynamik und andererseits Störungen in Botenstoffsystemen. Wie diese beiden zusammenhängen ist aber unklar. Führt die gestörte Neurotransmitterbalance letztendlich zu klinischen Symptomen, weil das Ungleichgewicht zu einer gestörten neuronalen Dynamik führt? Oder sind dies zwei unabhängige Phänomene? Offene Fragen, auf die Dr. Gerhard Jocham im geförderten Projekt Antworten finden möchte.

Über  PD Dr. rer. nat. Gerhard Jocham

Nach seinem Studium der Psychologie in Konstanz und Düsseldorf promoviert der 1975 in Wangen im Allgäu geborene Gerhard Jocham 2006 an der Heinrich-Heine-Universität in Düsseldorf. Am Max-Planck-Institut für Neurologische Forschung in Köln arbeitet er danach in der selbstständigen Nachwuchsgruppe „Kognitive Neurologie“ mit Prof. Dr. Markus Ullsperger. Nach einem dreijährigen Forschungsaufenthalt an der Universität Oxford übernimmt er 2013 die Leitung der unabhängigen CBBS-Forschergruppe „Cognitive Neuroscience“ am Center for Behavioral Brain Sciences (CBBS) an der Otto-von-Guericke-Universität Magdeburg. 2015 erlangt er mit der Habilitation an der Universität Magdeburg die Venia Legendi für das Fach Psychologie.

ERC Consolidator Grant

ERC Consolidator Grants fördern exzellente Wissenschaftler und Wissenschaftlerinnen und unterstützen ihre unabhängige Forschung. Hintergrund der Förderung ist, dass sich derzeit in Europa nur wenig Gelegenheiten für junge Forscher bieten, ihre Laufbahn unabhängig zu entwickeln und den Übergang von der angeleiteten Forschung zum selbständigen Forscher zu schaffen, so die Begründung des Europäischen Forschungsrates. Dieses strukturelle Problem führe zu einem dramatischen Verlust an Forschungstalenten in Europa und erschwere außerdem die Bildung der nächsten Generation von Spitzenforschern, die mit neuen Ideen und neuer Dynamik aufwarten.

Das Center for Behavioral Brain Sciences (CBBS)

Das CBBS wurde 2007 als Dachstruktur neurowissenschaftlicher Forschung in Magdeburg gegründet, um exzellente Nachwuchswissenschaftler zu fördern und durch Bündelung vielfältiger Herangehensweisen, Methodiken und Themen Synergien zu schaffen und Kompetenzen zusammenzuführen. Als zentrale Einrichtung wird sie wissenschaftlich gemeinsam von der Otto-von-Guericke-Universität Magdeburg und dem Leibniz-Institut für Neurobiologie (LIN) Magdeburg getragen und vereint gegenwärtig 100 Neurowissenschaftlerinnen und –wissenschaftler aus sechs Fakultäten der OVGU, dem LIN sowie dem Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE). Das CBBS wird gefördert aus Mitteln des Landes Sachsen-Anhalt, des Europäischen Fonds für regionale Entwicklung (EFRE) sowie der Leibniz-Gemeinschaft.

 

Bilder zum Download

Bild 1 // Quelle: Harald Krieg / Universität Magdeburg // Bildunterschrift: PD Dr. Gerhard Jocham

mehr ...

Der Magdeburger Dom als Adventskalender

In der Prototypenwerkstatt der Universität Magdeburg weihnachtet es sehr. Der Grund: Die Herstellung eines nachhaltigen Adventskalenders orientiert an der Grabkirche Otto des Großen, dem Namenspatron der „Ottostadt Magdeburg“. Aus insgesamt 60 Kilogramm Holz, 100 limitierten und per Hand verpackten Bausätze mit 145 unterschiedlichen kleinen Teilen zum Zusammenstecken bastelten Doreen Glanz und Hansjörg Stern das Wahrzeichen Magdeburgs zu einem Domkalender. „Architekt Hansjörg Stern hat den Dom bereits vor einigen Jahren aus Papier entwickelt, damit wir Kindern aus Magdeburg etwas von ihrer eigenen Stadt vermitteln konnten“, beschreibt Ideengeberin Doreen Glanz. Die Mutter von zwei Kindern hat lange Zeit für die Jugendkunstschule Magdeburg gearbeitet und somit bereits einige Dom-Unikate aus Papier gesehen. „Die Papier-Miniaturausgaben des Doms wurden von den Kindern bei Stadtführungen immer wieder mit dem Originalgebäude verglichen und so sind wir auf die Idee gekommen, unseren Entwurf auch auf andere Art und Weise einzusetzen“, berichtet Hansjörg Stern.

Adventskalender_Dom(c)Harald KriegIdeengeber und Umsetzer des Domkalenders Doreen Glanz und Hansjörg Stern im FabLab der Universität Magdeburg. (Foto: Harald Krieg / Universität Magdeburg)

Anfang dieses Jahres hat Papiermodell, das keine 1:1 Abbildung des Magdeburger Doms darstellt, die ersten Züge eines Adventskalenders aus Holz angenommen. Genau drei Prototypen und einige Bastelstunden im FabLab, dem Fertigungslabor zur Herstellung von Anschauungs- und Funktionsmodellen der Universität, später konnten die ersten Kalender zusammengesteckt werden.

„Bis alle Steckverbindungen richtig gepasst haben, mussten ein paar Kinderkrankheiten vom Beginn verbessert werden“, erinnert sich Fabian Laufer, wissenschaftlicher Mitarbeiter am Institut für Fertigungstechnik und Qualitätssicherung der Fakultät für Maschinenbau. Mit seiner Unterstützung konnte die technische Umsetzung finalisiert und die Feinheiten des Kalenders erarbeitet werden. Dafür wurde das Modell am Computer digital umgesetzt und mithilfe einer Laseranlage auf drei Millimeter dicke Plättchen übertragen, um die gewünschten Steckverbindungen ausschneiden zu können. „Wichtig ist, dass das Holz eine gute Qualität besitzt. Jeder Bausatz ist sehr exakt und einzelne Elemente können nur nach genauen Maßen passen“, so Fabian Laufer.

„Nächstes Jahr wird es den jetzt noch limitierten Kalender auch mit Inhalt geben. Beispielsweise mit regionalen Kleinigkeiten, die im Domkalender Platz finden und auch für jede Generation passen“, schaut Doreen Glanz voraus. „Und auch als normales Modell werden wir einen Bausatz vom Dom für das ganze Jahr erstellen – dieses Feedback haben wir von regionalen Läden hier erhalten.“

Der Domkalender als Bausatz

Die insgesamt 145 Teile für den Adventskalender werden gesteckt, so sieht jeder Dom am Ende gleich aus. Der Aufbau nimmt ca. 30 bis 45 Minuten in Anspruch, geübte Bastler können es auch in 10 bis 15 Minuten schaffen. Wer verzweifelt kann neben der Bauanleitung im Paket auch ein Video auf der Seite www.sternmitglanz.de zur Überprüfung einsetzen. „In jedem Bausatz befinden sich 29 kleine Briefumschläge“, erzählt Hansjörg Stern. „In jedem Brief steht eine Geschichte über Magdeburg drin. Vom Dom, das Magdeburger Lied oder die Lukas-Geschichte in mehreren Teilen.“ Aufgrund der geometrischen Gegebenheiten des Doms dürfen sich Eigentümer des Kalenders nicht nur auf die traditionellen 24, sondern 29 Türchen freuen. „Bei unserem Domkalender werden jeden Advent und Heiligabend zwei Türchen geöffnet“, freuen sich die beiden Tüftler.

Der limitierte Domkalender ist in folgenden Verkaufsstellen in Magdeburg zu finden:

mehr ...

Auf der Suche nach dem Optimum

Wenn der Mathematiker Benjamin Nill auf einer Party gefragt wird, was er beruflich macht, gibt es zwei Reaktionen: „Entweder die Leute erzählen, wie schlecht sie in Mathe in der Schule waren oder sie wollen wissen, was es denn überhaupt noch zu erforschen gibt, es ist doch schon alles bekannt.“ Geschieht das Letztere, versucht der Wissenschaftler mit einem Vergleich zu erklären, dass genau das Gegenteil der Fall ist. „Stellen Sie sich einen Ball vor. Innen drin ist das Wissen, das wir heute haben. Außen ist das, was wir noch nicht wissen. Und genau am Rand arbeiten wir in der Forschung.“ Das Entscheidende: Je größer der Ball – also das Wissen – wird, desto mehr offene Fragen tauchen auf. Es gibt also viel zu tun für Mathematiker wie Benjamin Nill.

Mathematiker will Eigenschaften geometrischer Formen ergründen

Um sein Forschungsthema zu beschreiben, zieht der Mathematikprofessor, der das Institut für Algebra und Geometrie der Universität Magdeburg leitet, wiederum einen Ball als Beispiel heran: „Ein Fußball mit abgeflachten Seiten ist ein klassisches Polytop“, sagt er. Dieser ist ein konvexer geometrischer Körper, der aus Fünf- und Sechsecken zusammengesetzt ist. Auch Würfel, Pyramiden und Prismen sind Polytope. Ihre Seiten werden von Vielecken gebildet und sie treten in beliebiger Dimension auf. Liegen ihre Ecken in einem vorgegebenen Gitter, sind es Gitterpolytope. In der Welt der Gitterpolytope sind die Koordinaten jeder Ecke ganze Zahlen, und sie bestimmen die Form und Lage des Körpers. Der Rand des Gitterpolytops begrenzt, welche Punkte innerhalb und welche außerhalb dieses Körpers liegen. Nills Aufgabe ist es, diese geometrischen Objekte mathematisch zu beschreiben und zu klassifizieren, Vermutungen aufzustellen und zu beweisen und interessante neue Beispiele zu entdecken und deren Eigenschaften zu untersuchen. „Ähnlich wie ein Geologe ein seltenes Kristall analysiert, ein Biologe Gene katalogisiert oder ein Physiker neue Teilchen entdeckt.“

„Schauen Sie mal hier“, fordert Benjamin Nill auf und zeigt ein 1514 entstandenes Bild des Malers Albrecht Dürer. Ein Magisches Zahlenquadrat, ein Zirkel, ein Polyeder – „Melencolia I“ ist angefüllt mit Symbolen, die für Geometrie und Mathematik stehen. Mittendrin ein Polytop. Schon lange Zeit vor Dürer befassten sich andere Gelehrte mit eben jenen geometrischen Figuren, die Mathematiker wie Benjamin Nill auch heute noch faszinieren. Bekannt sind die nach dem griechischen Philosophen Platon benannten „Platonischen Körper“, die von regelmäßigen Vielecken einer Sorte gebildet werden. Von diesen gibt es genau fünf: Tetraeder, Würfel, Oktaeder, Dodekaeder und Ikosaeder. „Es sind wunderschöne, harmonische Polytope“, sagt Benjamin Nill.

Prof_Benjamin_Nill_MotivProf. Dr. Benjamin Nill mit einem Modell eines Polytops. (Foto: Harald Krieg)

Die Alltäglichkeit der Polytope

Und diese waren bereits vor Jahrtausenden Thema der Wissenschaft. Gelehrte erforschten ihre mathematischen Eigenschaften, entwickelten Formeln und Gleichungen, um sie zu beschreiben. „Sogar Johannes Kepler nutzte Polytope für sein Planetenmodell“, sagt Benjamin Nill. Heute werden die weiterentwickelten Verfahren in nahezu allen wirtschaftlichen Bereichen angewendet: Mit den Berechnungen zu Polytopen, bei denen jede Koordinate für einen bestimmten Parameter – etwa die Umsatzzahl eines Unternehmens, die Länge des Weges von einer Stadt in die andere oder die Geburtenzahl eines Landes – steht, lassen sich Gewinne optimieren, die schnellsten Verbindungen bestimmen oder ermitteln, wie die Fläche eines Raumes am effektivsten genutzt wird. Auch Online-Versandhändler nutzen die Geometrie der Zahlen, die hinter den Gitterpolytopen steckt, um ihren Kunden Produkte zu empfehlen, die am besten zu ihnen passen. Streamingdienste berechnen, welche Serie oder welcher Film dem Nutzer gefallen könnte.

Jede einzelne Größe, die bekannt ist, bildet dabei eine Koordinate im Gitterpolytop. Je mehr Koordinaten angegeben werden, desto höher ist die Dimension des dabei entstehenden Körpers. „Es gibt keinen Grund, in der dritten Dimension aufzuhören“, erklärt Benjamin Nill. Auch, wenn es schwerfällt, sich Räume jenseits davon vorzustellen – mathematisch gesehen ist dies unproblematisch – und sehr nützlich für viele Fragestellungen. In seinen Berechnungen berücksichtigt Nill nicht nur Körper in der vierten, sechsten oder zehnten Dimension. Mitunter ist es notwendig, auch in der achttausendsten oder zehntausendsten Dimension zu rechnen.

Um das Verfahren der Gitterpolytope auf konkrete Fragen anzuwenden, müssen die Mathematiker Einschränkungen definieren. Diese bestimmen, wo die Grenzen des Gitterpolytops verlaufen: „Eine Fabrik kann nur eine bestimmte Menge Güter in einer bestimmten Zeit produzieren, oder ich habe nur zwei Laster, die die Waren transportieren und die zwischendurch auch aufgetankt werden müssen“, erläutert Benjamin Nill. „Alle diese Einschränkungen kann man in Formeln fassen.“ Ausschlaggebend ist vor allem eines: Die Koordinaten müssen ganze Zahlen sein. Dadurch sind die möglichen Lösungen Gitterpunkte, die an der Grenze oder innerhalb des Polytops liegen müssen, das den Prozess mit allen gegebenen Einschränkungen beschreibt. Denn nur dann sind alle notwendigen Voraussetzungen erfüllt. Durch ein algorithmisches Verfahren wird dann mathematisch bestimmt, welche Bedingungen erfüllt sein müssen, damit der Gewinn am größten oder die Transportkosten am niedrigsten sind. „Unvorstellbar viele Unternehmen arbeiten mit diesen Analysen“, betont Benjamin Nill. „Die Optimierung ist wahrscheinlich eine der Hauptanwendungen der Mathematik heutzutage.“

Die Mathematik als faszinierende Reise

Doch für den Professor liegt die Faszination für sein Fachgebiet nicht darin, dass es sich wunderbar auf alle möglichen Bereiche des Lebens und der Wirtschaft anwenden lässt. Das „Spiel des Geistes“, das Jonglieren mit Zahlen und Formeln, die Mathematik an sich hat ihn schon früh in ihren Bann gezogen. In der Begabten-AG der Schule löste er erstmals Probleme der Hochschul-Mathematik und entdeckte, dass diese Wissenschaft ein fantasievoller, kreativer Prozess ist – und nicht umsonst traditionell den Geisteswissenschaften zugeordnet wurde. „Homöomorphismus“, „imaginäre Zahlen“ oder „Mächtigkeit des Kontinuums“ – die Sprache der Mathematik war dabei wegweisend: „Diese Begriffe haben etwas in mir ausgelöst, es war wie eine Schatzsuche, wie eine Reise in ferne Länder. Ich wollte wissen, was dahintersteckt.“

Die Faszination blieb ihm erhalten, auch wenn in der folgenden Karriere als Wissenschaftler durchaus Ernüchterungen folgten: „Manchmal sitzen Mathematiker einfach nur vor einem Blatt Papier mit einem Problem, aber es fehlen oft gute Beispiele, um zu sehen, ob die Fragestellung überhaupt Sinn macht“, erklärt er. Dann helfen auch in der Mathematik Experimente – am Computer. Benjamin Nill untersucht etwa in großen Datenbanken, wie viele Polytope ganz bestimmte Eigenschaften besitzen – sehr große oder kleine Volumen oder einen besonders glatten Rand. Daraus leitet er Vermutungen ab und versucht diese schließlich wiederum mathematisch zu beweisen. Fügen sich die einzelnen Arbeitsschritte schließlich wie Puzzleteile zu einem großen Ganzen zusammen, haben sich die Mühen gelohnt: „Wenn man dann merkt, dass alles Sinn ergibt und die Vermutung sich lösen lässt, das ist dann wirklich ein Erfolgserlebnis.“

Mitunter dauert es Jahre oder Jahrzehnte, bevor es soweit ist. Doch manchmal steht am Ende des Weges auch das Scheitern. „Formuliert man eine Vermutung, kann man sich nie wirklich sicher sein, dass man sie auch lösen kann“, beschreibt Benjamin Nill das Dilemma eines Mathematikers.

Die wichtigste Eigenschaft eines Mathematikers

Benjamin Nill weiß, wovon er redet. Schließlich hat er gerade gemeinsam mit Kollegen ein mathematisches Problem gelöst, an dem Mathematiker bereits seit über 30 Jahren grübelten. Es ging um die Frage, welches Volumen ein Gitterpolytop maximal einnehmen kann, wenn genau ein Gitterpunkt im Inneren des Polytops vorhanden ist. Die Lösung zum Problem offenbarte sich Benjamin Nill schließlich, als er eine Veröffentlichung von Gennadiy Averkov las, eines Kollegen am Institut für Mathematische Optimierung. Beide hatten getrennt voneinander Teilprobleme der Frage gelöst – aus diesen konnte letztlich die entscheidende Formel entwickelt werden. „Das ist aber nur der Anfang“, schmunzelt Benjamin Nill. „Wir wollen auch wissen, wie die Formel für zwei oder drei, ja für alle Gitterpunkte aussieht.“

Die Aussicht darauf, dass die Antwort dazu möglicherweise wieder erst in Jahrzehnten gefunden wird, scheint ihn nicht abzuschrecken. Warum auch – schließlich hat er die wichtigste Eigenschaft eines Mathematikers: Durchhaltevermögen. Und auch ein wenig Risikobereitschaft. Denn: „Oftmals verstecken sich gerade hinter jenen Fragen, die besonders schwierig zu lösen sind, die wirklich spannenden Themen.“


dodekaederJenseits der 3. Dimension

Üblicherweise kennt man an jedem Körper drei Dimensionen: Höhe, Länge und Breite. Sich einen Körper jenseits der dritten Dimension vorzustellen, fällt uns schwer. Algebraisch ist es jedoch sehr einfach, in hohen Dimensionen zu arbeiten. Ein Punkt in der Ebene hat genau zwei Koordinaten: x und y. Die Werte der beiden Koordinaten können beliebig sein. Ein Punkt im dreidimensionalen Raum hat drei Koordinaten – also (x,y,z), oder etwa (1,-3,5). Ein Punkt im vierdimensionalen Raum ist von der Form (x,y,z,t) und hat beispielsweise die Werte (4,1,-3,2). Diese Konstruktion kann man leicht in noch höhere Dimensionen fortsetzen. Mathematisch sind also keine Grenzen gesetzt.

Geometrisch kann man sich Dimension 4 folgendermaßen vorstellen: Man nehme dazu zunächst an, dass man ein Wesen ist, dass in einer Ebene lebt, und sich nichts anderes als diese zweidimensionale Welt vorstellen kann. Wie könnte es einen Eindruck von der dritten Dimension bekommen? Dazu stelle man sich einen dreidimensionalen geometrischen Körper, etwa einen Würfel, vor, der von einer Lampe beschienen wird und einen Schatten auf die Ebene wirft. Dreht sich der Körper, verändert sich der Schatten. Sieht nun ein zweidimensionales Wesen diesen Schatten, kann es daraus Informationen über die dritte Dimension bekommen. In gleicher Weise können die Schatten (mathematisch: Projektionen) von vierdimensionalen Körpern uns einen Einblick in die vierte Dimension geben. Daten, wie sie etwa Computertomografen liefern, spielen dabei eine zunehmende Rolle.

mehr ...

Sportliche Mäuse gegen Alzheimer-Demenz

„Die Krankheit ist eine Diebin. Anfangs lässt sie einen hier und da Kleinigkeiten vergessen, aber sie ruht nicht, bis sie einem alles geraubt hat. Sie raubt einem die Lieblingsfarbe, den Duft des Lieblingsgerichts, die Erinnerung an den ersten Kuss und die Liebe zum Golfspielen. Ein belebender Frühlingsschauer, der die Erde mit glitzernden Wassertropfen reinigt, wird zu simplem Regen. Duftige Schneeflocken, die die Welt zu Beginn des Winters mit einer weißen Decke schmücken, fühlen sich nur noch kalt an. Das Herz schlägt, die Lunge nimmt Luft auf, die Augen sehen Bilder, aber innerlich ist man tot. Der Lebensgeist ist erloschen. Ich nenne die Krankheit heimtückisch, weil sie einem die Würde raubt – sogar die Seele.“

Mit diesen eindringlichen Worten beschreibt der niederländische Psychologe Huub Buijssen in seinem Buch „Demenz und Alzheimer verstehen“ die heimtückische Krankheit. Dabei ist Demenz der Oberbegriff für viele Erkrankungsbilder, die mit einem Verlust geistiger Funktionen wie Erinnern, Orientierung und Verknüpfen von Wahrnehmung und Gelerntem einhergehen. Rund 60 Prozent aller Demenzen werden durch die Alzheimer-Erkrankung hervorgerufen. Gegenwärtig leben in Deutschland fast 1,6 Millionen Menschen mit einer Demenz- Erkrankung. Die Zahlen der Deutschen Alzheimer Gesellschaft aus dem Jahr 2016 bestätigen darüber hinaus, dass Jahr für Jahr etwa 300.000 Neuerkrankte hinzukommen.
Das Team um den Physiologen Prof. Dr. Volkmar Leßmann ist federführend in einem internationalen Forschungsprojekt, das erstmals systematisch und interdisziplinär die Wirksamkeit verschiedener Therapieansätze zur Behandlung neurodegenerativer Erkrankungen im Tiermodell untersucht, die den Ausbruch der Krankheit verzögern bzw. ihren zerstörerischen Verlauf verlangsamen könnten.

HKrieg-Lessmann-

Prof. Dr. Volkmar Leßmann an einem elektrophysiologischen Messplatz, an dem synaptische Signale des Maus-Hippocampus gemessen werden. (Foto: Harald Krieg)

Bewegungstraining für Alzheimer-Mäuse

Mithilfe biochemischer, elektrophysiologischer und verhaltensphysiologischer Methoden sowie mathematischer Modelle und computergestützter Simulationen sollen krankhafte Veränderungen in neuronalen Schaltkreisen erfasst und Pharmaka sowie andere therapeutische Ansätze ausgetestet werden, die diese Schaltkreise vor Degeneration schützen können. Rund 30 Wissenschaftlerinnen und Wissenschaftler aus acht Forschungsstandorten sind an dem mit 2,3 Millionen Euro von der EU und dem Bund sowie verschiedenen nationalen Förderorganisationen unterstützten und von Professor Leßmann koordinierten Verbundprojekt mit dem Titel „CircProt: Synaptic Circuit Protection in Alzheimer and Huntingtons disease“ beteiligt.
Volkmar Leßmann ist Direktor des Instituts für Physiologie der Universität Magdeburg und untersucht dafür zusammen mit Dr. Thomas Endres und weiteren Wissenschaftlern im Institut das
Lernverhalten von sogenannten Alzheimer-Mäusen. Diese Tiere zeigen genetische Veränderungen, die nachgewiesenermaßen zur Alzheimer-Erkrankung führen.

AlzheimermausDie Mäuse bekommen die Aufgabe, sich unter dem Einfluss unterschiedlicher Behandlungsstrategien in einem kleinen Schwimmbecken an Bildern räumlich zu orientieren. Gesunde Mäuse sind in der Lage, sich im Laufe der Zeit relativ schnell bestimmte Positionen im Raum, wie z. B. eine Plattform im Wasserbecken, zu merken. Die Geschwindigkeit, mit der die Plattform gefunden wird, ist ein Maß für die Qualität des räumlichen Gedächtnisses, für das die Mäuse Erinnerungen in einer bestimmten Region des Gehirns, dem Hippocampus, abspeichern müssen. Alzheimer-Mäuse machen bei diesem Lernvorgang nur sehr langsam Fortschritte. Bereits im Alter von sechs Monaten, das entspricht in etwa 40 Lebensjahren beim Menschen, zeigen sie klare Defizite gegenüber gesunden Mäusen. Die Wissenschaftlerinnen und Wissenschaftler wollen nun herausfinden, ob sich diese Defizite ausgleichen lassen und, ob sich die Lern- und Gedächtnisfähigkeit dieser vorbelasteten Mäuse unter dem Einfluss bestimmter Wirkstoffe bzw. eines umfangreichen Bewegungstrainings im Laufrad verbessern.

Wissenschaftler bauen die Brücke zwischen Molekül zum Gedächtnis

Das Schlüsselmolekül, das bei den Untersuchungen der internationalen Studie im Vordergrund steht, ist das von den Nervenzellen hergestellte Protein BDNF. „Im gesunden Organismus reguliert das Protein BDNF die geordnete Informationsübertragung zwischen Nervenzellen und sorgt dafür, dass Informationen im Gehirn als Gedächtnisinhalte abgespeichert werden. Bei neurodegenerativen Erkrankungen wie der Demenz können wir sowohl beim Menschen als auch bei Mäusen einen reduzierten Stoffwechsel des Proteins BDNF in den betroffenen Hirnarealen beobachten. Wir vermuten deshalb, dass eine gestörte Funktion von BDNF in den neuronalen Netzwerken den Ausbruch von Demenz-Erkrankungen begünstigt“, so Prof. Leßmann. „Die zellulären Zusammenhänge, wie BDNF den Ausbruch der Demenz verzögern kann, sind aber noch weitgehend unverstanden, was die Entwicklung effektiver Therapien bisher verhindert hat.“

Alzheimermaus2„Mit Gedächtnistests überprüfen wir regelmäßig das räumliche Orientierungslernen der Tiere. Demente Mäuse werden dabei in zwei Gruppen eingeteilt, eine Gruppe wird behandelt, während die andere als unbehandelte Kontrolle dient“, stellt Professor Volkmar Leßmann dar. „Durch die Bewegung mittels Laufrädern im Käfig können wir beobachten, dass Sport bei den Tieren dazu führt, den BDNF-Level im Gehirn ansteigen zu lassen.“ Durch den positiven Einfluss von BDNF auf die Signalverarbeitung zwischen den Nervenzellen könnte körperliche Aktivität demenzabhängigen Alterungsprozessen im Gehirn entgegenwirken – so die Hypothese.
„Die Wirksamkeit solcher Therapieansätze wird im Prinzip auf drei Ebenen untersucht“, so Volkmar Leßmann. „Erstens auf der Verhaltensebene, das heißt wir untersuchen, wie die Mäuse in den Gedächtnistests mit und ohne Behandlung abschneiden. Anschließend versuchen wir, Lernprozesse und den Einfluss der Wirkstoffe und Therapien auf zellulärer Ebene nachzuweisen.
Langfristig ist es unser Ziel, auch auf molekularer Ebene frühe Veränderungen nach Möglichkeit noch vor Ausbruch des Gedächtnisverlustes zu erkennen und sogenannte biochemische Marker zu finden, die mit einem verschlechterten Lernprozess bei Morbus Alzheimer in Verbindung stehen.“ Solche Biomarker ermöglichen ein frühzeitiges Screening, wer eine Anti-Alzheimertherapie erhalten sollte.

Die Wissenschaft im biomedizinischen Bereich sei sehr spezialisiert, erläutert Prof. Dr. Volkmar Leßmann. „Es gibt Labore, die besonders gut sind, um sich Verhaltensveränderungen anzuschauen und andere, die exzellent darin sind, um sich damit assoziierte Veränderungen der elektrischen Signalverarbeitung des Gehirns anzusehen. Weitere Labore, mit denen wir zusammenarbeiten, sind darauf spezialisiert, biochemische Veränderungen in den Nervenzellen zu untersuchen.“ EU-Konsortien, wie die im Rahmen seines Forschungsprojektes, erlauben, vernetzt forschen zu können. Durch das internationale Top-Team, welches molekular und verhaltensphysiologisch in führenden Laboren forscht, sind Ergebnisse nicht auf Zufälle angewiesen. „Und auch das ist es, was Forschung maximal spannend macht: Im Endeffekt von einem Molekül BDNF hin zu einem Lernverhalten und dessen Veränderungen im hohen Alter eine Brücke schlagen zu können – eine Herausforderung, aber unglaublich spannend und nur in solchen Gemeinschaften möglich.“

Mit Informationstechnik das synaptische Netzwerk verstehen

Auch die Informatik spielt eine große Rolle. Ein italienischer Kollege aus Palermo ist zum Beispiel Experte darin, neuronale Netzwerke und die miteinander verbundenen Nervenzellen mit Hilfe des Computers zu simulieren. Für diesen Schritt benötigt er biologische Signale, die an den Synapsen entstehen, also an den Verbindungen zwischen einzelnen Nervenzellen.
Diese Signale werden in den anderen Laboren gemessen und nach Italien geschickt. Der Kollege simuliert dann in einem Netzwerkmodell der miteinander kommunizierenden Zellen, welche Veränderungen es an den Synapsen gibt, wenn Alzheimer-Demenz ausgebrochen ist. Im Vergleich dazu stehen die gesunden Kontrollmäuse.
Der Mehrwert des IT-Einsatzes: Die Forscher sind bei einem zukünftigen Medikamentenscreening eher in der Lage, die synaptischen Veränderungen auf dem Niveau der einzelnen Zellen nachzuempfinden und könnten so schneller aus Messergebnissen ablesen, ob eine getestete Substanz wirksam ist.

„Niemand kann sich genau vorstellen oder vorhersagen, wie viele Daten letztendlich von uns gesammelt werden müssen, um mit validen Ergebnissen zu arbeiten, die dann auch auf Menschen übertragbar sind“, vermutet Professor Leßmann. Aber erste Erkenntnisse nach einem Jahr Forschung zeigen: Sport erhöht den BDNF- Level. Ob jedoch auch in den Hirnregionen wie dem Hippocampus, die diese BDNF- Erhöhung zeigen und die eine Schlüsselrolle für das Gedächtnis und Lernen spielen, aus dieser Erhöhung eine bessere Signalverarbeitung der Neurone resultiert, muss weiter untersucht werden. „Wir müssen überprüfen, ob die behandelten Mäuse in dem Gedächtnistest im Alter besser abschneiden als die unbehandelten Mäuse. Wenn das der Fall ist, wird geschaut, in wie weit die verantwortliche Hirnregion veränderte Ströme zeigt, von denen man weiß, dass sie mit gutem Lernen und Gedächtnis korrelieren.“

Demenz könne wohl noch längere Zeit nicht geheilt werden, so der Physiologe. „Aber wir können mit unserer Forschung die Grundlage dafür schaffen, künftig medikamentöse oder Lifestyle-Behandlungen für Menschen zur Verfügung zu stellen, die dafür sorgen, dass die zerstörerische Krankheit verzögert wird und nicht so schnell so schlimm wird. Damit müssen wir so früh wie möglich beginnen.“

Wussten Sie schon, dass...

 Grafik_Alzheimer

 

... die Physiologie als Teilgebiet der Biologie und der Medizin die Lehre von den physikalischen und biochemischen Vorgängen in den Zellen, Geweben und Organen aller Lebewesen ist?

... die Alzheimer-Krankheit nach dem deutschen Neurologen Alois Alzheimer (1864 - 1915) benannt ist, der die Krankheit erstmals im Jahre 1906 wissenschaftlich beschrieben hat?

... der Hauptrisikofaktor für eine Demenz nach der vorherrschenden wissenschaftlichen Meinung das hohe Lebensalter ist? Das Überwiegen des weiblichen Geschlechts unter den Betroffenen ist wahrscheinlich vor allem in der um einige Jahre höheren Lebenserwartung von Frauen begründet.

mehr ...

Manche mögen's heiß

Sie fühlen sich pudelwohl, wenn es so richtig heiß ist. Sie sind klein, winzig klein, im Mikrobereich zu finden, und sie leuchten in den schönsten Regenbogenfarben. Die Rede ist von Phosphoren. Nicht zu verwechseln mit dem Element im Periodensystem mit der Ordnungszahl 15 und dem Symbol P, dem Phosphor.

Prof. Dr.-Ing. Frank Beyrau, Leiter des Lehrstuhls für Technische Thermodynamik an der Fakultät für Verfahrens- und Systemtechnik der Otto-von-Guericke-Universität Magdeburg, und sein Team nehmen Mikropartikel dieser leuchtenden Stoffe im Projekt PHOSPHOR – Synthesis of Novel Phosphor Sensor Particles for Advanced Flame Diagnostics genau unter die Lupe. Mit ihrer Hilfe haben die Magdeburger Forscher ein neues Verfahren entwickelt, um Verbrennungsvorgänge besser analysieren zu können.

Prof_Beyrau_Phosphor

Prof. Dr.-Ing. Frank Beyrau mit Laserschutzbrille richtet eine Kamera zur Detektion der leuchtenden Phosphor-Partikel aus. (Foto: Harald Krieg)

Die Bezeichnung Phosphore (Plural) leitet sich aus dem englischen Wort „phosphor“ ab und steht für Leuchtstoff. Phosphore, bekannt aus Leuchtstoffröhren, Uhren mit Leuchtziffernblatt, Nachtsichtgeräten und LED-Bildschirmen, sind keramische Materialien, die nach der Beleuchtung durch einen Laser Licht abstrahlen. Leuchtfähig sind sie, weil in das keramische Wirtsmaterial Leuchtionen dotiert, also eingebracht, werden. Das können Seltene Erden wie Ytterbium oder Erbium oder Übergangsmetalle wie Chrom oder Mangan sein. Sie liegen tief im Innern und reagieren nicht auf die Umgebung, in der sich der Kristall befindet. Hängen Farbe und Leuchtdauer der Emission von der Temperatur des Wirtsmaterials ab, dann nennt die Wissenschaft sie thermografische Phosphore. Aus den verschiedenartigen Konfigurationen von Wirtsmaterial und Leuchtionen ergeben sich viele Eigenschaften, die Phosphore für die Sensorik attraktiv machen. 

Den Kollegen in Princeton über die Schulter schauen

Gemeinsam mit Partnern der Princeton University in den USA möchten die Magdeburger Wissenschaftler diese Konfigurationen optimieren, mit dem Ziel, durch Synthese neuer, für die Strömungstemperaturerfassung optimierter, Phosphore den messbaren Temperaturbereich zu vergrößern. Auf einer Tagung waren die Kollegen aus Princeton auf die Arbeit von Professor Beyrau und seinem Team aufmerksam geworden und dann als Partner in das Projekt PHOSPHOR eingestiegen. Die Förderung durch das EU-Rahmenprogramm für Forschung und Innovation „Horizont 2020“ ermöglicht es, dass Lehrstuhlmitarbeiter Dr. Christopher Abram den Kollegen am Advanced Combustion and Propulsion Lab an der Princeton University für 18 Monate über die Schulter schauen kann. Dort werden innovative Synthesemethoden entwickelt, welche die Herstellung von Phosphor-Partikeln mit spezifischen physikalischen und optischen Eigenschaften ermöglichen. Er lernt, Phosphore unter Verwendung dieser hochmodernen Verfahren herzustellen.  Die ersten eigenen Versuche von Dr. Abram brachten Beachtenswertes: Seine Phosphore zeichnen sich durch eine monodisperse Größe aus, das heißt, sie sind alle von der gleichen Größe, und sie sind schön rund, und das ist optimal für die Forschungen in Magdeburg, bei denen derzeit noch auf kommerzielle, weniger gut geeignete plättchenartige Phosphore zurückgegriffen werden muss. Nach seiner Rückkehr wird der Nachwuchswissenschaftler in Magdeburg am Lehrstuhl für Technische Thermodynamik ein Labor aufbauen, in dem die neuen Materialien hergestellt, unter anderem bezüglich der Temperatursensitivität charakterisiert und für praktische Anwendungen eingesetzt werden können.

Simultan Temperatur und Strömungsgeschwindigkeit erfassen

Partikel_Labor_Detail_2Warum nun sind die thermografischen Phosphore so spannend für die Magdeburger Forschenden? „Weil es mit ihnen erstmals möglich ist, gleichzeitig in Verbrennungssystemen die herrschenden Temperaturen und die Strömungsgeschwindigkeiten zu messen“, erklärt Professor Frank Beyrau. „In bisher etablierten Verfahren wurden entweder die Geschwindigkeit oder die Temperatur in einem System erfasst. Um aber Verbrennungsprozesse in Motoren oder Gasturbinen endgültig verstehen und somit auch optimieren zu können, müssen die während der Verbrennung ablaufenden Prozesse simultan erfasst werden.“ In Gasturbinen, beispielsweise in Flugzeugtriebwerken, werden die Flammen sehr heiß. Trotz extrem hitzebeständiger Materialien halten die Bauteile Temperaturen von weit über 1.000 Grad Celsius oft nicht ohne zusätzliche Kühlung aus. Deshalb werden in die Brennkammerwände und Turbinenschaufeln kleine Löcher eingebracht, um kalte Luft einströmen zu lassen, die sich zur Kühlung wie ein Film auf die Bauteile legt, Effusionskühlung ist der Fachbegriff.
Wie dick ist der Film? Wo zieht er hin? Wie mischt er sich mit den heißen Verbrennungsgasen? Diese Fragen beschäftigen die Wissenschaftler. Den Luftstrom in seiner Kühlwirkung zu optimieren, ist nicht trivial. Ihn zu analysieren, haben Professor Beyrau und sein Team nun die Messmethode entwickelt, in der mithilfe von Phosphor-Partikeln simultan Temperatur und Strömungsgeschwindigkeit erfasst werden können. Winzige Phosphor-Teilchen werden im Brennraum relativ gleichmäßig verteilt. Mit einem kommerziellen Laser können sie zur Phosphoreszenz, zum kalten Leuchten, angeregt werden. Die Farbe und die Dauer des Leuchtens hängen von der Temperatur der Phosphor-Partikel ab. Sie leuchten im sichtbaren Spektralbereich, nicht ultraviolett oder infrarot. Um die Farbveränderungen zu erfassen, ist deshalb keine besondere Spezialkamera nötig. Da die Partikel so winzig klein sind, reagieren sie sehr schnell auf Änderungen ihrer Umgebungstemperatur und auch auf Änderungen der Strömungsgeschwindigkeit des sie umgebenden Fluids. Das ist eine gängige Methode. „So können wir die Partikel, mit denen wir die Strömungsgeschwindigkeit erfassen, bequemerweise gleich auch als Temperatursensoren nutzen“, erläutert Professor Beyrau. „Wir haben also an das standardisierte Verfahren der Geschwindigkeitsmessung mithilfe von funktionalisierten Mikropartikeln die Temperaturmessung angedockt. Ein Partikel für zwei Messungen.“ 

Die Phosphor-Sensoren sind unheimlich breit einsetzbar, beispielsweise in der Automobilindustrie, um die Kühlung des Motors zu verfolgen. Durch das Aufheizen der Motorbauteile geht sehr viel Energie verloren. Die Bauteile, an denen besonders viel Wärmeübertragung passiert, könnten durch Keramikbeschichtungen, sogenannte thermische Barrieren, wie sie bereits in den Turbinenschaufeln der Flugzeuge üblich sind, geschützt werden. Um herauszufiltern, an welchen Bauteilen eine Beschichtung sinnvoll ist, kann die simultane Temperatur- und Strömungsgeschwindigkeitsmessung zum Einsatz kommen. Nicht nur die Wissenschaftlerinnen und Wissenschaftler am Lehrstuhl nutzen die neue Messmethode, um unter anderem Wärmeübertragungsprozesse zu untersuchen oder die optimale Zerstäubung von Kraftstoff vor der Verbrennung herauszufinden.

Phosphor

 

Tuning der phosphorischen Eigenschaften

Ein neues Forschungsfeld hat sich für die Wissenschaftler zudem in biologischen Anwendungen aufgetan. Kooperationspartner fanden sie am Institut für Molekulare und Klinische Immunologie der Universität Magdeburg. „Bei Messungen in biologischen Systemen kommen wir sehr schnell in den Nanobereich“, sagt Professor Beyrau und gibt einen Ausblick in zukünftige Forschungsaufgaben. „Mit diesen noch kleineren Partikeln könnten wir in immer kleineren Systemen messen, beispielsweise in Zellen oder auf Computerplatinen. Dafür gibt es momentan kein physikalisches Thermometer. Mit robusteren Phosphoren könnten wir in höheren Temperaturbereichen messen, beispielsweise direkt in der Flamme. Und auch die Leuchtkraft der Partikel möchten wir erhöhen. Dafür müssen wir herausfinden, welche Kombination aus Wirtsmaterial und Leuchtionen bei höheren Temperaturen sinnvoll ist.All diese Eigenschaften möchten die Magdeburger Wissenschaftler im Projekt PHOSPHOR so tunen, dass sie ideal für ihre Untersuchungen werden. Die Forschungsergebnisse werden neue Messmöglichkeiten für die angewandte und Grundlagenforschung liefern und zur Verbesserung des Designs von Antrieben in der Automobil- und Flugzeugindustrie beitragen. „Die neuartigen Materialien werden auch in der Beleuchtungs- und Displaytechnologie oder als biologische Sensoren Verwendung finden. Sie können aber auch zur Untersuchung von Phänomenen, wie sie in Meeresströmungen oder in Magmabewegungen unter dem Erdmantel auftreten, genutzt werden. Die Einsatzmöglichkeiten der Phosphor-Sensoren sind von einer geradezu unendlichen Bandbreite.

Wussten Sie schon, dass...

 Grafik_Phosphor1 ... Lumineszenz das Aussenden von Licht nach vorangegangener Anregung durch Energieaufnahme ist? Also, wenn ein Elektron aus einem Zustand der höheren Energie in einen Zustand der niedrigen Energie wechselt. Dabei wird überschüssige Energie als „kaltes Licht“ abgegeben. Übrigens ist Lumineszenz abgeleitet vom lateinischen „lumen“ für „Licht“.
 Grafik_Phosphor2 ... sich der Begriff Keramik aus dem altgriechischen „keramos“, der Bezeichnung für Ton, ableitet? Keramiken werden aus anorganischen, feinkörnigen Rohstoffen und Wasser geformt und anschließend in einem Brennprozess bei hohen Temperaturen gesintert. Manche mögen's heiß, wie es der Titel des Filmklassikers nicht nur Marilyn Monroe, Tony Curtis und Jack Lemmon verheißt. Ein bedeutendes Einsatzgebiet sind sogenannte Heißanwendungen in Brennsystemen oder der Ofenbau, bei denen Temperaturen bis 2.500 Grad Celsius auftreten können.

mehr ...

So scharf wie nie!

Das menschliche Gehirn ist eines der komplexesten Organe. Es ohne operative Eingriffe zu studieren, ist eine Herausforderung, der sich Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen an der Magdeburger Universität in Kooperation mit Kollegen aus anderen regionalen und internationalen Forschungseinrichtungen stellen. Dabei ist die hochauflösende Bildgebung mittels Magnetresonanztomographie ein Schwerpunkt der Abteilung Biomedizinische Magnetresonanz, die von Prof. Dr. Oliver Speck von der Fakultät für Naturwissenschaften geleitet wird. Durch Anwendung neuer Technologien gelang dem Team ein Weltrekord – die bislang genaueste dreidimensionale Darstellung des Gehirns eines lebenden Menschen.

Messgerät viermal so schwer wie ein Elefant

Der Magnetresonanztomograph (MRT), mit dem Neurowissenschaftler um Professor Oliver Speck von der Magdeburger Universität das menschliche Gehirn seit über einem Jahrzehnt studieren, zählt bis heute zu den weltweit besten seiner Art. Mit einer Länge von 3,6 Metern und einer Masse von 32 Tonnen hat er etwa die Größe eines erwachsenen afrikanischen Elefanten und mehr als dessen vierfache Masse. Der mit flüssigem Helium auf etwa vier Kelvin gekühlte Elektromagnet erzeugt ein künstliches Magnetfeld mit einer Feldstärke von 7 Tesla, was etwa der 140.000-fachen Stärke des natürlichen Magnetfeldes an der Erdoberfläche entspricht. Elektrisch und magnetisch abgeschirmt von der Außenwelt, befindet er sich in einem separaten Gebäude auf dem Campus der Medizinischen Fakultät. Im Jahr 2005 war es das erste Hightech-Gerät seiner Art in Europa und das zweite weltweit, das in Kooperation zwischen dem deutschen Industrieunternehmen Siemens Healthcare, dem Magdeburger Leibniz-Institut für Neurobiologie (LIN) und der Otto-von-Guericke-Universität Magdeburg entstand. Seither wurde die Technologie zur Darstellung präziser Einblicke in die Funktionen des lebenden Gehirns ständig verbessert. Jüngster Höhepunkt ist die aktuell bestaufgelöste Darstellung des Gehirns eines lebenden Menschen. Zur Entstehung haben Professor Speck, Leiter der Abteilung Biomedizinische Magnetresonanz, und Falk Lüsebrink, Doktorand in seiner Abteilung und ehemaliger Masterstudent der Medizintechnik an der Uni Magdeburg, wesentlich beigetragen.

Magnetom

Der 32 Tonnen schwere 7-Tesla Ultrahochfeld-Kernspintomograph wurde in einem eigenen Gebäude auf dem Medizin-Campus installiert. (Foto: Harald Krieg)

Längere Messzeit ermöglicht präzisere Bilder

Ähnlich wie Astronomen mehr Sterne bei Verlängerung der Belichtungszeit aufnehmen können, ist es prinzipiell auch durch Verlängerung der Messzeiten im MRT möglich, die bereits hervorragende Auflösung des 7-Tesla-MRT weiter zu verbessern und noch kleinere Details als Sandkorngröße darzustellen. Ein grundsätzliches Problem dabei ist allerdings, dass kein Proband stundenlang bewegungslos im MRT liegen kann. „Selbst kleinste Bewegungen von weniger als einem Millimeter können den Erfolg einer solchen Messung verhindern“, so Oliver Speck. Die Forscher mussten also eine Technik entwickeln, die lange Messungen von über einer Stunde ohne störende Effekte durch Bewegungen am Menschen ermöglicht. Erschwerend kam hinzu, dass in der engen „Röhre“ des Magnetresonanztomographen nur sehr wenig Platz für die Installation zusätzlicher Technologie vorhanden ist und diese mit dem starken Magnetfeld und der Messung verträglich sein muss.

Neue Zusatztechnik in Kooperation entwickelt

Zuerst musste eine Lösung gefunden werden, um während der Datenaufnahme die gemessenen Bewegungen des Probanden auszugleichen. „Anfangs hielten einige Experten das für unmöglich, denn das MRT war dafür nicht konzipiert worden“, erinnert sich Oliver Speck. Doch es gelang in Kooperation mit den Universitäten Freiburg und Hawaii die Software so anzupassen, dass das Messvolumen, das sogenannte Field of View, kontinuierlich entsprechend der Kopfbewegungen nachgeführt und somit trotzdem eine scharfe Aufnahme erzeugt werden kann. Um die Bewegungen von Probanden aufzunehmen, wurden eine MRT-kompatible Kamera und ein nur fingernagelgroßer Marker verwendet. Die Forscher nutzen dabei das an der Universität Milwaukee entwickelte Moiré Phase Tracking: Der speziell gerasterte Marker wird von einer einzelnen Kamera beobachtet und erlaubt die Messung von dreidimensionalen Bewegungen.
Das allein reichte jedoch noch nicht aus. Eine weitere Herausforderung bestand darin, den Marker fest mit dem Schädel und somit dem Gehirn zu verbinden, weil selbst Bewegungen der Hautoberfläche falsche Informationen liefern würden.
Ermöglicht wurde dies letztlich durch eine Art Zahnspange, die gemeinsam mit den Zahntechnikern des Universitätsklinikums entwickelt und individuell für Probanden angefertigt wurde. Da die Schneidezähne fest im Schädel verankert sind, hatte man eine praktikable Technik gefunden, um selbst kleinste Bewegungen des Kopfes von bis zu zehn Mikrometern zu messen.

brain_annot

Dreidimensionale Darstellung einer Hirnhälfte eingeteilt in unterschiedliche Areale basierend auf seiner Oberflächenstruktur. (Bild: Falk Lüsebrink)

Ein "Testpilot" aus Magdeburg wollte es wissen

Im Rahmen seiner Doktorarbeit wollte der Medizintechniker Falk Lüsebrink nun austesten, wo die Grenzen des 7-Tesla-MRTs und des Kamerasystems liegen. Dafür stellte er sich selbst als Versuchsperson zur Verfügung und ließ Bilder seines Gehirns in einer Messzeit von knapp acht Stunden, aufgeteilt auf mehrere Sitzungen, erstellen. Zur Kombination der Daten aus den einzelnen Messungen entwickelte er eigens eine neue Methode. „Das Ergebnis war noch besser, als wir es uns erhofft hatten“, so Projektleiter Speck: „Unsere Darstellung des Gehirns ist die derzeit detailreichste, die mit einem MRT von einem lebenden Menschen gewonnen wurde.“ Das gesamte Datenvolumen beträgt etwa 1,2 Terabyte.

Magdeburger Datensatz reist um die Welt

Der Bilddatensatz zeigt Details, wie sie bislang nur bei der invasiven Untersuchung von Körperspendern zu sehen waren. Die Forschergruppe hat sich daher entschlossen, die Daten weltweit anderen Wissenschaftlerinnen und Wissenschaftlern für weitere Forschungs- zwecke ohne jegliche Einschränkungen frei zugänglich zu machen. Die Umsetzung dieser Idee gestaltete sich jedoch nicht so einfach wie gedacht. „Bislang gab es keine Möglichkeit an der Universität Magdeburg, elektronische Datensätze in Publikationen über eine DOI-Nummer zugänglich zu machen“, so der Medizintechniker Lüsebrink. Das gelang erst mit der Unterstützung der Universitätsbibliothek, welche in kürzester Zeit dafür ein Verfahren etablierte. Der Aufwand scheint sich allerdings gelohnt zu haben. Bereits kurz nach ihrer Veröffentlichung stießen die Daten auf großes Interesse. Innerhalb der ersten vier Monate wurde der Datensatz über mehr als 17.500 Mal heruntergeladen. Zudem wurde die Publikation in über 130 Tweets mit knapp 125.000 Followern geteilt.

Den Wissenschaftlern ging es nicht darum, einen Weltrekord aufzustellen, um in das Guinness-Buch oder in die Tagesmedien zu kommen. Ziel ihrer Forschungen ist es, noch präzisere Bilddaten aus dem lebenden Gehirn zu erhalten und künftig noch zuverlässiger deuten zu können, um nach Hinweisen zur Entstehung und zum Verlauf neurodegenerativer Erkrankungen wie Morbus Alzheimer sowie psychiatrischer Störungen zu suchen. Auf dieser Grundlage wurden bereits neue Forschungsprojekte u. a. mit dem Forscherteam um Prof. Dr. med. Emrah Düzel vom Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) in Magdeburg gestartet.

Übrigens...

Gehirn

Foto: Yakobchuk Viacheslav - shutterstock.com

Nichtinvasive Blicke in das Gehirn
Die drei wichtigsten nichtinvasiven Verfahren zur Messung von Hirnfunktion sind die Elektroenzephalographie (EEG), die Magnetenzephalographie (MEG) und die Magnetresonanztomographie (MRT). Mit ihnen werden erst seit wenigen Jahrzehnten Einblicke in das Gehirn eines lebenden Menschen ermöglicht. EEG und MEG messen die elektromagnetische Aktivität von Nervenzellverbänden mit hoher zeitlicher Auflösung (im Bereich von Millisekunden). In räumlicher Hinsicht sind sie jedoch vergleichsweise ungenau. Im Gegensatz dazu erlaubt die MRT eine hohe räumliche Auflösung (im Millimeter- bzw. Submillimeterbereich) und so eine exakte anatomische Darstellung des Gehirns.

Gehirn2

Foto: s4svisuals - shutterstock.com

MRT am menschlichen Gehirn
Das durchschnittliche Hirnvolumen eines erwachsenen Menschen beträgt etwa 1.500 Kubikzentimeter, was etwas mehr als der Größe eines halben Handballs entspricht. In der gefalteten äußeren Schicht des Gehirns, dem Kortex, arbeiten ungefähr 16 Milliarden Nervenzellen, die untereinander über die weiße Substanz vernetzt sind. Mit modernen, im klinischen Alltag eingesetzten 3-Tesla-MRTs lässt sich ohne Zusatztechniken eine Darstellung des menschlichen Gehirns mit einer räumlichen Auflösung von einem Kubikmillimeter innerhalb weniger Minuten erreichen. In diesem kleinen Volumen können mehr als 30.000 Nervenzellen vorhanden sein. Um ein 64-Mal kleineres Volumen mit einer Kantenlänge von gerade mal 250 Mikrometern am lebenden menschlichen Gehirn sichtbar zu machen, benutzten die Forscher der Uni Magdeburg das 7-Tesla-MRT und verlängerten das „Beobachtungsfenster“ auf etwa acht Stunden.

mehr ...

zurück 1 | 2 | 3 | [4] | 5 | 6 | 7 | 8 vor

Letzte Änderung: 15.08.2017 - Ansprechpartner:

Sie können eine Nachricht versenden an: Webmaster
Sicherheitsabfrage:
Captcha
 
Lösung: