Benutzer-Werkzeuge

Webseiten-Werkzeuge


Seitenleiste

de:home:kinder:projekt:lysa-danach

GESTENBASIERTE SCHNITTSTELLE - INTELLIGENTER TUTOR - EINE HERAUSFORDERUNG

(Prof.Dr.Gerd Doeben-Henisch)

* Anmerkung: Die endgültige Version dieses Beitrags findet sich in dem Buch 'fraMediale. digitale Medien in Bildungseinrichtungen', Bd.3, hg. von Thomas Knaus/ Olga Engel, München:kopaed Verlag, 2013,SS.81-94 *

LYSA DANACH

Auch ein Jahr nach dem Ende des LYSA-Projektes stellt das LYSA-Projekt einen starken Impuls dar. Dies rührt nicht nur daher, dass es das LYSA-Projektteam im WS2011 geschafft hatte, aus einigen losen Ideen in relativ kurzer Zeit einen eindrucksvollen Demonstrator mit einer sehr weitreichenden Anwendungsbegründung zu entwickeln, sondern auch daher, dass das LYSA-Team das Konzept des intelligenten Tutors als wichtiges Moment des Gesamtkonzeptes eingeführt hatte. In ihrer Vision konnte man erkennen, was es bedeuten würde, wenn wir ein System mit solch einem intelligenten Tutor hätten. Dem LYSA-Projekt war es nicht vergönnt, solch einen 'intelligenten Tutor' entwickeln zu können. Im nachfolgenden Text (der aus einem Beitrag für ein Buch hervorgegangen ist) wird zunächst nochmals die Projektleistung nachvollzogen, um dann dort weiter zu denken, wo das Projekt aufhörte: wie kommen wir zu einem intelligenten Tutor?

Der Rückblick beginnt mit der Faszination, die das Auftreten neuer Interfacetechnologien im Jahr 2010 bei einigen Studierenden ausgelöst hatte.

NEUE INTERAKTIONSFORMEN

Durch neue interaktive Spielekonsolen und dabei zum Einsatz kommende interaktive, Gesten einbeziehende, Technologien, hat sich das Mensch-Maschine Verhältnis konkret weiter gewandelt. Natürlich stellt sich sehr schnell die Frage, ob und wieweit man diese neuen Interaktionsmöglichkeiten auch für den Unterricht in Schulen nutzen kann. Als Studiengangsleiter eines interdisziplinären Masterstudienganges 'Barrierefreie Systeme' blickt man dabei ganz natürlich auch auf jene Benutzergruppen, die mit der herkömmlichen Standardschnittstelle Tastatur, Maus, Bildschirm und Lautsprecher das eine oder andere Problem haben, und die durch diese neuen Möglichkeiten möglicherweise eine zusätzliche Unterstützung erfahren könnten. Im nachfolgenden Text werde ich von einem einschlägigen interdisziplinären Projekt berichten, das Studenten des Studiengangs BaSys durchgeführt haben. Am Beispiel dieses Projektes werde ich dann einige der Anwendungspotentiale vorstellen, soweit wir sie heute sehen. Zugleich werde ich aber auch aufzeigen, welche technischen und theoretischen Herausforderungen gelöst werden müssen, um diese Potentiale wirklich nutzen zu können. Für manche mag dies streckenweise an 'Science Fiction' erinnern, aber es ist keine Science Fiction; es sind genau die technischen Fragestellungen, an denen wir heute stehen, und die in einem Masterstudiengang wie BaSys heute behandelt werden.

STUDENTISCHES PROJEKT

LYSA Team

Im Rahmen von BaSys haben die Studierenden generell die Möglichkeit, drei Semester hintereinander in einem interdisziplinären Projekt zu arbeiten. Im Sommersemester 2011 hatten Studierende von BaSys aus eigenem Interesse mit den Spielekonsolen Wii (von Nintendo), der Playstation3 (von Sony) sowie und ganz besonders mit dem Kinect-Sensor (von Microsoft) experimentiert und sie fragten sich, ob man damit nicht noch 'mehr' machen könnte. Die einen begannen Experimente mit einer Kombination des Kinect Sensors mit dem BaSys-Roboter (der Kinect Sensor kostete bei seinem Erscheinen weniger als 5% der sonst üblichen dreidimensionalen Videosensoren, die wir bis dahin für den Roboter benutzt hatten), die anderen versuchten es mit neuen, innovativen Lernunterstützungen. Von letzterem möchte ich hier kurz berichten.

LYSA Team

Kinect-Sensor auf BaSys-Roboter

LERNUNTERSTÜTZUNG FÜR AUTISTISCHE KINDER

Die Entscheidung für die Benutzergruppe der autistischen Kinder, die unter einem frühkindlichen Autismus leiden, hatte sich aufgrund eines vorausgehenden Kontaktes mit der Leiterin der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Kindes- und Jugendalters der Goethe - Universität (Frankfurt,Main), Frau Professor Dr. med. Dipl. theol. Christine M. Freitag, ergeben. In mehreren Gesprächen hatten einige BaSys ProfessorenInnen herausgehört, dass die soziale Benachteiligung der Kinder aufgrund ihres schleppenden Spracherwerbs möglicherweise abgeschwächt werden könnte, wenn es gelingen könnte, den Kindern bei ihrem Spracherwerb mehr Unterstützung zukommen zu lassen als bisher. Limitierende Faktoren der bisherigen Situation sind einmal die beschränkten Ressourcen seitens der verfügbaren Erwachsenen, insbesondere der Therapeuten, zum anderen die spezifischen Verhaltensvoraussetzungen in den Kindern selbst. Wissend um die Möglichkeiten, die die heutigen neuen Technologien prinzipiell bieten, hatten die BaSys ProfessorenInnen dann eine Arbeitshypothese entwickelt, wie man durch neue technische Assistenzsysteme die Interaktion mit den sprachlernenden Kindern möglicherweise so verbessern könnte, dass man Hoffnungen auf eine Verbesserung der Sprachfähigkeit hegen konnte. Dazu kam, dass diese angedachte Lösung sehr generisch (= inklusiv!) sein würde, da sie nicht nur für autistische Kinder von Nutzen wäre, sondern eigentlich für alle Kindern, ja im Prinzip für alle 'Lerner'. Diese ersten Gespräche und Überlegungen fanden statt im Rahmen der Vorbereitung eines LOEWE-Antrags (siehe LOEWE). Als dieser Antrag dann negativ beschieden wurde, standen die Ideen dennoch weiter im Raum. Es war dann sehr erfreulich, dass sich einige Monate später sieben Studierende zusammen fanden, diese Ideen unter dem Projekttitel „LYSA“ (Learning Systems for Autistic Children) aufzugreifen.

TECHNIK FÜR MENSCHEN

In der Frühzeit des Computers war der Einsatz eines Computers sehr 'benutzerunfreundlich', wie wir heute sagen würden (siehe HCI0, HCI1, HCI2). Menschen mussten erheblichen Aufwand treiben, um diese neue Technologie für ihre Zwecke nutzen zu können. Mittlerweile ist die Technik so weit fortgeschritten, dass man mehr und mehr primär die Frage stellen kann, wie soll die Technik 'designed' werden, um bei einer bestimmten Aufgabenstellung unterstützend wirken zu können. Dies ist eine deutliche Abkehr von dem alten Paradigma, erst die Technik zu entwickeln und dann zu schauen, wie man den potentiellen Benutzer 'an die Technik' anpasst. Dieser Wandel manifestiert sich auch in der Tatsache, dass das Thema Mensch-Computer Interaktion (MCI) bzw. Mensch-Maschine Interaktion (MMI) sich mittlerweile zu einem feststehenden Thema entwickelt hat, das auch zunehmend in den Curricula der Hochschulen Berücksichtigung findet. In BaSys steht die Mensch-Maschine Interaktion jedenfalls als Leitthema über allen Projekten und von daher wundert es nicht, dass die Studierenden sich nicht nur auf die rein technische Analyse oder auf losgelöste technische Lösungsansätze beschränkten. Wie jeder im ausführlichen Projektbericht der Studierenden in diesem Wiki nachlesen kann, haben sie sich sehr intensiv mit der Situation der Kinder beschäftigt, haben medizinische, psychologische und soziale Aspekte abgeklärt, haben nach bewährten Lehrmethoden geforscht, haben Eltern und Erzieher befragt, bevor sie dann eine eigene Arbeitshypothese entwickelt haben, wie man den Kindern am besten eine Unterstützung zugänglich machen könnte.

HERAUSARBEITUNG EINES ZIELES

Wie jeder schnell feststellen kann, der sich in das Thema Autismus vertieft (Anmerkung: Außer in dem sehr ausführlichen Hauptartikel 'Autismus' finden sich zahlreiche weitere Literaturangaben in der Dokumentation des Projektes 'LYSA'), handelt es sich um ein sehr vielschichtiges und schwieriges Thema. Von vornherein war klar, dass das studentische Projekt nur einen ersten Schritt darstellen konnte, Grundlinien des Themas sichtbar zu machen und exemplarisch an einer möglichen Lösung zu arbeiten (dies auch deswegen, weil sich diese Projektgruppe nicht schon im ersten Semester, wie üblich, gebildet hatte, sondern erst im dritten von drei Semestern; sie hatte also viel weniger Zeit als üblich).

Eine grundlegende Erkenntnis in den studentischen Recherchen bestand darin, dass nach dem bisherigen Forschungsstand nur eine Linderung der Symptomatik möglich erscheint, keine vollständige Heilung. Ziel musste es daher sein, durch Frühförderung die Entwicklung der Selbständigkeit, die soziale Integration sowie die schulische und berufliche Entwicklung zu unterstützen. Für das studentische Team kamen daher nur Lösungsansätze im Bereich der Verhaltenstherapie in Frage (siehe. Verhalten). Zudem kann nur solch eine technische Lösung Aussicht auf Erfolg haben, in der das Umfeld des Kindes optimal berücksichtigt wird, also z.B. die Eltern, mögliche Geschwister, Freunde, und – nicht zu vergessen – seine Therapeuten und Lehrer. Mehr noch, eine technische Lösung muss sich in einen übergreifenden individuellen Therapieplan nahtlos einfügen. Wegen ihrer erzieherisch-pflegerischen Bindungskompetenzen zu ihrem Kind kommt den Eltern die zentrale Rolle zu. Andererseits sagen alle Beteiligten, dass gerade dies – bei allen positiven Zuwendungen – auch eine hohe, streckenweise bis an die Grenzen führende, Belastung für die Eltern darstellt. Es kann also auch ein Ziel sein, durch technische Unterstützung partiell zu einer Entlastung bei zu tragen.

Aus dem großen Spektrum möglicher verhaltenstherapeutischer Szenarien versuchte das studentische Team sich auf den Aspekt der Unterstützung beim Sprachlernen zu fokussieren, natürlich unter Berücksichtigung möglichst aller hier relevanter Faktoren. Sie selektierten dafür die TEACCH-Methode ( Treatment and Education of Autistic and Related Communication Handicapped Children) und die PECS-Methode (Picture Exchange Communication System) aus einem ganzen Spektrum möglicher Methoden. Beide Methoden verkörpern verhaltensbasierte Ansätze. Beide nehmen eine sehr starke Strukturierung der Anwendungssituation vor, beschreiben sehr detailliert die verschiedenen Vorgehensweisen, und besitzen mittlerweile Evaluationen, die die Wirkung der Methoden belegen.

Diese Analysen lassen zwar die Vielschichtigkeit der Aufgabenstellung gut erkennen, aber aus ihnen kann man nicht erkennen, wie denn eine mögliche technische Lösung aussehen sollte, die diese Überlegungen so umsetzt, dass den jeweiligen Kindern in ihrer Situation tatsächlich geholfen werden kann. Für die Studierenden von BaSys ist aber gerade dies eine wichtige Lernaufgabe: wie kann man eine solche 'Übersetzung' therapeutischer Ziele in geeignete technische Anforderungen für eine bestimmte Aufgabe durchführen?

VOM THERAPEUTISCHEN ZIEL ZUR TECHNISCHEN ANFORDERUNG

Die Aufgabenstellung „Wie komme ich von einer therapeutischen Anforderung zu einer technischen Lösung“ kann man beliebig breit beantworten. Im vorliegenden Fall hatte das studentische Team vorab einige Randbedingungen formuliert, die dem Ganzen eine erste Richtung gaben. So sollten (1) eine mögliche Lösung in einer Wohnung einsetzbar sein, in einem für das Kind reservierten Bereich. Als Technologie sollte erprobungsweise der (2) Kinect-Sensor von Microsoft zum Einsatz kommen kombiniert mit einem (3) Bildschirm (z.B. Fernsehgerät, oder auch Beamer), und (4) Lautsprechern. Schließlich nahmen das Team kühn an, dass das assistierende technische System grundsätzlich soweit (5) intelligent sei, dass es wichtige Eigenschaften im Lernverhalten des Kindes 'erkennen' und aufgrund dieser differenzierten 'Wahrnehmung' 'passende' Aktionen starten könnte (In dieser sehr weitreichenden Annahme folgte das studentische Team der Arbeitshypothese aus den vorausgehenden Untersuchungen für den LOEWE-Antrag). Diese Interaktionen seitens des technischen Assistenzsystems setzten voraus, dass (6) die Bild-,Text- und Tonereignisse 'kindgerecht' sind, dass sie (7) die Aufmerksamkeit hinreichend erregen können, und dass (8) sich hinreichend viele verstärkenden Effekte im Kind einstellen, so dass es von sich aus auf diese Weise interagieren möchte.

Die Gültigkeit einiger dieser Annahmen (wie z.B. die Annahme, dass die eingesetzten Mittel 'kindgerecht' seien, dass sie die 'Aufmerksamkeit' wie erwartet 'erregen' würden, dass sie 'verstärkend' wirken) konnte natürlich nur im weiteren Verlauf durch Benutzbarkeits-Tests geklärt werden.

Für das studentische Team kam es jetzt darauf an, zunächst einmal einen ersten experimentellen Prototypen einer Lösung zu konzipieren, mit dem sich dann diese weiteren Tests durchführen ließen. Wie kommt man aber zu einem ersten Prototyp?

GEWÜNSCHTES VERHALTENSMODELL DES ASSISTENZ-SYSTEMS

Im allgemeinen Systemsengineering (siehe: SE) gibt es unterschiedliche Strategien, wie man an dieser Stelle vorgehen kann. Im Rahmen von BaSys wird vorgeschlagen, dass man ein Modell des erwarteten Verhaltens erarbeitet, aus dem man recht konkret ableiten kann, wie das zu bauende System sich verhalten soll. Für jede hier identifizierte Aufgabe, die das Kind lernen soll, muss beschrieben werden, mit welchen Mitteln das Kind die Aufgabe lösen soll, welche Wahrnehmungen von ihm dafür notwendig sind, welche minimalen kognitiven Leistungen erwartet werden, und welche Handlungen es ausführen können muss, damit es die Aufgabe umsetzen kann. Komplementär dazu muss beschrieben werden, wie das unterstützende technische System die Aktivitäten des Kindes wahrnehmen soll, und auf welche Weise das System jeweils auf die Situation mit dem Kind Antworten soll.

An dieser Stelle muss man festhalten, dass das studentische Team in seiner Dokumentation nahezu nichts zum Verhaltensmodell geschrieben hat. Man erfährt von einigen rudimentären Aspekten nur in dem offiziellen Video.

In Anlehnung an die oben erwähnten Methoden TEACCH und PECS besteht die Grundidee darin, dass das unterstützende System dem Kind helfen soll, einfache Sprachspiele zu spielen. Ein Beispiel ist der Bereich 'Kochen'. Dem Kind werden mittels Bilder verschiedene Zutaten angezeigt, die es mittels Arm- und Handbewegungen in einen großen Topf legen kann. Jedes mal, wenn es einen Gegenstand nimmt, wird ihm der Name des Gegenstandes genannt. Die benutzten Belohnungsmuster bleiben unklar. Das unterstützende System muss mittels dem Kinect-Sensor die Bewegungen des Kindes erkennen und mit den auf dem Bildschirm angezeigten Objekten so verknüpfen, dass eine plausible Greifbewegung realisiert wird. Ferner muss das System die Objekte mit den richtigen sprachlichen Ausdrücken verknüpfen und sie laut sprechen. Ferner muss das System erkennen, ob das Kind die sprachlichen Ausdrücke korrekt wiederholt. Zusätzlich soll das System eine Einschätzung zum Lernfortschritt vornehmen können und in Abhängigkeit davon seine Interaktionen planen.

In mehreren Demonstrationen – auch mit zwei Kindern – wurde diese Anwendungsidee vorgeführt.

Kind mit Geste vor Bildschirm mit Kochzutaten

TECHNISCHE REALISIERUNG

Auf der Basis der vorausgehenden Analysen – und zum Teil parallel – wurde der Kinect-Sensor eingehend getestet und Software entwickelt, die in der Lage ist, das 'Skelett' einer Person vor dem Sensor in seiner dreidimensionalen Auslegung zu erfassen und relativ dazu auch noch die Position und Gestalt der Hand. Damit konnte man dann eine Beziehung zum Bildinhalt herstellen und die Bewegungen der Person in Aktionen auf dem Bildschirm umrechnen. Da dies in Echtzeit geschah hatte der jeweilige Benutzer den Eindruck einer unmittelbaren Wirkung, die von seiner persönlichen Bewegung auf den Bildschirm direkt ausging. Dies ergab dann eine gestenbasierte Interaktion!

VISION UND WIRKLICHKEIT

Die eigentliche Vision des Projektes war – und in gewisser Weise ist sie es noch immer – die Realisierung eines unterstützenden Systems, das ein Kind in seinem Spracherwerb tatsächlich über eine längere Phase 'verständnisvoll' begleiten kann.

Wie man aus der zu diesem Punkt dünner werdenden Dokumentation des studentischen Teams erahnen kann, war es der Gruppe innerhalb des einen Semesters (pro Semestern umfasst die Zeit für das interdisziplinäre Projekt ein Drittel, parallel zu anderen Fachmodulen) nicht möglich, über den Demonstrator hinaus zu kommen. Ein Auftritt beim Microsoft Innovation Day im Januar 2012 in München gefolgt von diversen Presse- und Fernsehberichten samt den danach eintreffenden Anfragen von Institutionen zeigt aber, dass die Vision, die dieses Projekt transportiert, auf großes Interesse stieß.

Die Begrenzungen, die das Projekt aufzeigte, waren zum einen die begrenzten Ressourcen an Zeit. Zum anderen lagen sie aber auch in dem Mangel an Wissen, was letztlich notwendig ist, um das unterstützende System 'intelligent' zu machen, so dass es 'kindgerecht' und 'situationsangemessen' reagieren kann. Diesen Mangel kann man dem studentischen Team nicht zum Vorwurf machen, hatte zur Projektzeit doch sogar weltweit niemand dieses Wissen verfügbar. Den Studierenden kann man vielmehr dankbar sein, dass Sie den Mut hatten, eine so schwierige Frage anzugehen, und dass sie dabei schon im ersten Schritt sehr innovative und interessante Ansätze erkennen ließen.

PRAXIS VERLANGT THEORIE

Ohne die spannende Projektidee, autistischen Kindern bei ihrem Spracherwerb zu helfen, und die elektrisierenden neuen Möglichkeiten gestenbasierte Interaktionen (zusammen mit gesprochener Sprache) einzubeziehen, wäre das herrschende Theoriedefizit nicht so klar hervorgetreten. Erst im Versuch einer realen Umsetzung zeigten sich die Grenzen des bisherigen Wissens sehr klar; mangelndes Wissen, fehlende Theorien sind auf sehr reale Weise radikale Praxisbremsen. Damit technischen Systeme das tun, was wir gerne hätten, dass sie es tun, müssen wir unser Wissen um praktische Lernunterstützung in geeignete mathematische Modelle übersetzen.

Im vorliegenden Fall müsste das technische System z.B. (i) über ein Wissen darüber verfügen, wie denn überhaupt ein 'altersgerechtes Sprachmodell' aussehen 'sollte' (SOLL). Welchen Wortschatz muss man unterstellen? Welche Form von Äußerungen darf man erwarten? Usw. Ferner (ii) müsste das technische System in der Lage sein, den 'aktuellen Zustand' des lernenden Kindes 'einzuschätzen' (IST). Was kann es bisher? Was zeigt es konkret an Verhaltensweisen? Das technische System müsste dann (iii) in der Lage sein aus dem Vergleich von SOLL und IST eine 'Einschätzung' vorzunehmen, an welchen Stellen 'angesetzt' werden sollte. Was wären sinnvolle 'nächste Teilziele' für eine weitere Verbesserung (NEXT STEP)? Teilziele alleine reichen aber nicht. Das System müsste (iv) auch noch wissen, mit welchen 'Interaktionsmustern' man solche Teilziele 'umsetzen' kann (PATTERN). Dabei müsste beständig die aktuelle Situation des Kindes (CONTEXT)im Blick sein. Und ein wichtiger, vielleicht sogar der entscheidende, Teil des Interaktionsmodells wäre (v) das 'Motivationsmodell': unter welchen Bedingungen kann das Kind von sich aus etwas lernen? Dies sind einige der wichtigen Fragen, die geklärt sein müssten, damit möglicherweise ein unterstützendes technisches System im skizzierten Sinne entstehen könnte.

WISSENSCHAFTSPHILOSOPHIE

Das zuvor skizzierte Wissen, das für ein unterstützendes technisches System benötigt würde, entspräche in seiner vollen Form in etwa dem Wissen, das ein ausgebildeter Therapeut bzw. Lehrer haben muss, um seinen Beruf ausüben zu können. Wie man leicht feststellen kann, gibt es bis heute keine vollständige Theorie dieses Wissens, erst recht nicht in einer mathematischen Form. Es drängt sich die Frage auf, ob und – falls ja – wie wir solch eine Theorie erreichen könnten.

Im Falle von Menschen, die bislang technischen Systemen in vielen Formen des Wissenserwerbs und der flexiblen Wissensanwendungen noch immer haushoch überlegen sind, wissen wir, dass der Erwerb der 'Lehrfähigkeit' nicht durch das einfache Eintrichtern einer vollständigen formalisierten Theorie stattfindet (einer Theorie, die bislang nicht einmal in Ansätzen existiert), sondern durch eine Vielzahl von Teilmodellen in informellen Darstellungen, die begleitet werden durch konkrete Praxisphasen. Der hier das Lehren Lernende muss sich aus all den unterschiedlichen Informationen 'in seinem Innern' sein 'eigenes Modell' 'erarbeiten'. Wie dieses 'innere Erarbeiten' genau vonstatten geht, weiß bis heute niemand; es wird aber allgemein als prinzipiell möglich unterstellt. Ob dem Lernenden die innere Erarbeitung schließlich gelingt, wird durch allerlei 'Tests' überprüft, bis er irgendwann 'zertifiziert' ist. Mathematisch präzise Definitionen sind hier nicht möglich.

Schon diese sehr vereinfachende Darstellung lässt erahnen, dass eine erschöpfende mathematische Modellierung aller hier einschlägiger Aspekte wenig realistisch erscheint (und, wie man im Detail zeigen könnte, tatsächlich unmöglich ist).(siehe: SUPPE)

Folgt daraus die prinzipielle Unmöglichkeit, technische Systeme zur Unterstützung des Spracherwerbs zu bauen?

Die paradoxe Antwort auf diese Frage lautet klar: Ja, es ist möglich. Die positive Antwort liegt im Menschen verborgen, in uns selbst: obwohl wir bis heute keine vollständige Theorie der gesprochenen Sprache haben (und niemals haben werden) kann jedes Kind, das keinen zu starken Beschränkungen unterliegt, dennoch jede bekannte Sprache lernen, ohne solch eine Theorie explizit zu kennen. D.h. Kinder können Sprechen lernen, ohne dass sie in der Lage sind, explizit zu beschreiben, was sie tun, wenn sie sprechen. Sie können lernen, ohne dass ihnen jemand erzählen muss, was Lernen ist. Dies ist möglich, weil das Gehirn (im Körper) so 'gebaut' ist, dass es grundsätzlich 'Lernen' kann, nicht nur Sprachen.

Die Lösung des Problems liegt also nicht darin, erst eine vollständige und mathematisch präzise Theorie auszuarbeiten (die prinzipiell unmöglich ist), sondern darin, jene Strukturen nach zu bauen, die genau diese Eigenschaft einer 'allgemeinen Lernfähigkeit' besitzen, die Fähigkeit zu einem 'dynamischen Wissen'. Allerdings folgt daraus, dass selbst dann, wenn es uns gelingen sollte, auf technische Weise eine allgemeine Lernfähigkeit zu realisieren, diese potentiell unterstützenden Systeme – genau wie wir Menschen – 'Lernprozesse' absolvieren müssten, durch die sich die entsprechenden 'internen Modelle' – im Erfolgsfall – herausbilden würden. Während Menschen ihr einmal erworbenes Wissen nur sehr mühsam und sehr begrenzt weiter geben könnten, könnte das Wissen selbstlernender technischer Systeme durch einfaches Kopieren weitergegeben werden.

SCIENCE FICTION REAL

Wer mit dem Lesen bis hierher durchgehalten hat, kann zumindest erahnen, dass und warum eine weiterführende Forschung zu technischen Systemen, die beim Spracherwerb unterstützend wirken können, sich genau auf die Ermöglichung einer allgemeinen Lernfähigkeit konzentrieren sollte. Und nach all diesen Überlegungen wird es sicher auch nicht verwundern, dass wir im Studiengang BaSys – unter vielen anderen spannenden Themen – genau dieses Thema in Lehrveranstaltungen und Forschungsprojekten verfolgen. Eine dieser Lehrveranstaltung ist das Modul Dynamisches Wissen 1 und 2, dazu das gerade beginnende internationale Forschungsprojekt Emergent Mind Project (EMP).

Sowohl in der Lehrveranstaltung wie auch in dem Forschungsprojekt besteht die grundlegende Arbeitshypothese darin, dass ein 'allgemein lernendes System' sich – ähnlich wie in der biologischen Evolution – im Wechselspiel mit einer sich verändernden 'Umwelt' schrittweise 'selbst erfinden' muss. Man beginnt daher zunächst mit möglichst einfachen Fällen des Lernens und weitet diese immer mehr aus.

Bei der Ausarbeitung der Lernszenarien werden die Paradigmen der verhaltensorientierten experimentellen Psychologie benutzt (siehe: SKIN1, SKIN2, TOL), angereichert um Erkenntnisse aus der Gehirnforschung (siehe: BAARS, KANDEL) und der allgemeinen Biologie, speziell der Evolutinsbiologie.(siehe:BIOL) Die Modelle zu den 'allgemein lernfähigen Strukturen' sind voll mathematisiert, ebenso ihre Interaktionsmodelle und die 'Trainingswelten'. Das Ganze soll öffentlich zugänglich gemacht werden, so dass jeder 'zuschauen' oder sogar 'aktiv mitmachen' kann.

Was darf man von diesem Projekt erwarten? Zunächst natürlich nicht zu viel, da es sich um maximal schwierige Problemstellungen handelt und die bis dato verfügbaren finanziellen und personellen Ressourcen auf die 'Bordmittel' der beteiligten Partner beschränkt sind. Andererseits arbeiten wir seit vielen Jahren an dieser Thematik und wir gehen sehr systematisch vor. Ergebnisse sind von daher 'unausweichlich'. Die erste Phase des Projektes geht bis Februar 2017. Offizieller Start soll März 2014 sein.

QUELLENNACHWEISE

  • Anmerkung 1: Die nachfolgenden Quellenangaben sind exemplarisch zu verstehen. Auf den angegebenen Webseiten finden sich viele hundert weitere Angaben.
  • Anmerkung2: Internetquellen sind im allgemeinen problematisch wegen einer fehlenden Qualitätskontrolle. Doch muss man feststellen, dass es speziell in der englischsprachigen Wikipedia sehr viele Stichworte von hoher Qualität gibt. Einige benutze ich in diesem Text.
  • Anmerkung 3: Alle angegebenen Links wurden am 31.3.2013 zuletzt überprüft.

Autismus: Stichwort 'autism', URL: http://en.wikipedia.org/wiki/Autism

BAARS: Baars, J.B.; Gage, N.M. Cognition, Brain, and Consciousness. Introduction to Cognitive Neuroscience, 2nd.ed., Amsterdam et: Elsevier, 2010

BaSysS: Interdisziplinärer Masterstudiengang „Barrierefreie Systeme“, URL: https://www.fh-frankfurt.de/fachbereiche/uebergreifende_angebote0/basys.html

BaSysP: BaSys Projektmodell für interdisziplinäre Projekte, URL: http://www.basys.fh-frankfurt.de/dokuwiki/de:home

HCI0: Dix, A.; Finlay,J.E.; Abowd,G.D.; Beale, R.: Human-Computer Interaction. Pearson Education, 2003, 3rd.ed.

AUT2: U.Frith, F.G.Happé, D.G.amaral, S.T.Warren, Autism and Other Neurodevelopmental Disorders Affecting Cognition, in: Kandel et al. (eds.), Principles of Neural Science, 1425-1440

DYKNO: Vorlesung zu 'Dynamischem Wissen 1 und 2', Vorschau, URL: http://www.uffmm.org/dykno/index.html

EMP: Emerging Mind Project (EMP), Kurzbeschreibung, URL http://www.basys.fh-frankfurt.de/dokuwiki/en:home:emp

SE: L. D. Erasmus; G. Doeben-Henisch, A Theory of the System Engineering Management Processes, in ISEM 2011 International Conference, Sept. 2011

HCI1: Jacko, J.A.; Sears, A. (eds.) The Human Computer Interaction Handbook. Fundamentals, Evolving Technologies and Emerging Applications. Mahwaw (NJ) - London: Lawrence Erlbaum Associates, Publ., 2003

KANDEL: Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012

Kinect: Kinect-Sensor von Microsoft, URL: http://de.wikipedia.org/wiki/Kinect

LOEWE: Vorgeschichte zum LYSA-Projekt, URL: http://www.basys.fh-frankfurt.de/dokuwiki/de:home:kinder:vorgeschichte

LYSA: Interdisziplinäres Studentisches Projekt in BaSys, Dokumentation, URL: http://www.basys.fh-frankfurt.de/dokuwiki/de:home:kinder:projekt:lysa

PECS: Picture Exchange Communication System (PECS), Stichwort, URL: http://en.wikipedia.org/wiki/PECS

Play3: Playstation3 von Nintendo, URL: http://de.wikipedia.org/wiki/Playstation_Move#PlayStation_Move

HCI2: Sears, A.; Jacko, J.A.; (eds.) The Human Computer Interaction Handbook. Fundamentals, Evolving Technologies and Emerging Applications. New York - London: Lawrence Erlbaum Associates, Publ., 2008, 2nd edition

SKIN1: Skinner, B.F., Science and Human Behavior, New York et al: The Free Press, 1953

SKIN2: Skinner, B.F., Verbal Learning, Appleton-Century-Crofts, 1957

BIOL: Storch, V.; Welsch, U.; Wink, M.; Evolutionsbiologie, 2.Aufl. rev. and ext., Berlin - Heidelberg: Springer Verlag, 2007

SUPPE: Suppe, F. (Ed.), The Structure of Scientific Theories, 2nd. ed., Urbana: University of Illinois Press, 1979

TOL: Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951

TEACCH: Treatment and Education of Autistic and Related Communication Handicapped Children (TEACCH), Stichwort, URL: http://en.wikipedia.org/wiki/TEACCH

Verhalten: Stichwort 'Verhaltenstherapie' als 'Behavior Therapy', URL: http://en.wikipedia.org/wiki/Behavior_therapy

VIDEO: Video zum Projekt LYSA, erstellt mit Unterstützung der Firma Microsoft Deutschland: http://www.youtube.com/watch?v=1b4FXB8VVNM&feature=plcp)

Wii: Wii Spielekonsole von Nintendo, URL: http://de.wikipedia.org/wiki/Wii

de/home/kinder/projekt/lysa-danach.txt · Zuletzt geändert: 2014/11/24 14:04 (Externe Bearbeitung)