E-Book, Deutsch, 432 Seiten
Reihe: Xpert.press
Möbus Web-Kommunikation mit OpenSource
2006
ISBN: 978-3-540-29093-3
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark
Chatbots, Virtuelle Messen, Rich-Media-Content
E-Book, Deutsch, 432 Seiten
Reihe: Xpert.press
ISBN: 978-3-540-29093-3
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark
Informationen braucht jeder, und viele Unternehmen und Institutionen nutzen das Web, um Informationen in der Kundenkommunikation zur Verfügung zu stellen. Moderne Web-Technologien sind zudem eng mit der Entwicklung von Lernsystemen, E-Commerce-Systemen und Cyberworlds verknüpft. Im vorliegenden Buch werden Open-Source-basierte Techniken zurWeb-Kommunikation in fundierter Weise und einem Learning-by-Doing-Ansatz vermittelt. Zentrale Themen sind dabei Chatbots, Avatare, Virtuelle Messen und Rich-Media-Content sowie die Integration verschiedener Web-Funktionalitäten in einem Portal. Die Autoren vermitteln diese Technologie in einem thematischen Kontext, und zeigen damit verschiedene funktionelle Komponenten des WWW zur Kommunikation im Zusammenspiel. Nach der Lektüre dieses Werkes sollte der Leser imstande sein, selbständig ein dialogfähiges, animiertes Lern- und Informationsportal entwickeln, installieren und administrieren zu können.
Autoren/Hrsg.
Weitere Infos & Material
1;Vorwort;6
2;Die Autoren;9
3;Inhaltsverzeichnis;10
4;Teil I Für Entscheider: Frage-Antwort-Systeme;18
4.1;1 Einleitung;20
4.2;2 Das E-Learning- und Informationssystem I-can-EIB;22
4.2.1;2.1 Kommunikation;22
4.2.2;2.2 Die LERNET-Ausschreibung des BMWA;26
4.2.2.1;2.2.1 Arbeitsprozessorientierte Weiterbildung;27
4.2.2.2;2.2.2 Lernen am Kundenauftrag: Impliziter und expliziter Wissenserwerb;28
4.2.3;2.3 Struktur des Rich-Media-Systems I-can-EIB;28
4.2.4;2.4 Prototypische Anwendungsszenarien von I-can-EIB;32
4.2.4.1;2.4.1 Szenario 1: Optimiertes Informationsangebot einer Zielgruppe: Forum für BMW-Fans und -Fahrer;33
4.2.4.2;2.4.2 Szenario 2: Einsatz im kommunalen Bürgerservice;33
4.2.4.3;2.4.3 Szenario 3: Einsatz im Customer Relation Management (CRM) der Unterhaltungsmedien;36
4.2.4.4;2.4.4 Szenario 4: Interaktives Informationsangebot einer Musikkneipe;37
4.2.4.5;2.4.5 Szenario 5: Informationsangebot eines Universitätsinstituts;38
4.2.4.6;2.4.6 Szenario 6: E-Learning- und Informationsangebot einer Schule;39
4.2.4.7;2.4.7 Szenario 7: Beratungsservice eines innovativen Großunternehmens;39
4.3;3 Die Entwicklungsgeschichte von I-can-EIB;40
4.3.1;3.1 Das Uni-Seminar Agenten und Avatare;40
4.3.2;3.2 Der ffn-Chat;40
4.3.3;3.3 Die Vision eines internetbasierten Wissensmarktplatzes;42
4.4;4 Frage-Antwort-Systeme und I-can-EIB;46
4.4.1;4.1 Einleitung;46
4.4.2;4.2 Frage- und Antwort-Systeme;54
4.4.2.1;4.2.1 Theoretischer Rahmen von Frage und Antwort;55
4.4.2.2;4.2.2 Fragen;56
4.4.2.3;4.2.3 Antworten;58
4.4.2.4;4.2.4 Eine abstrakte FAS-Architektur;60
4.4.2.5;4.2.5 Frühere Systeme;61
4.4.2.6;4.2.6 State-of-the-Art: Der Halo-Pilot;62
4.5;5 Die Auslegung des I-can-EIB-Systems;76
4.6;6 Ausblick: Eine Roadmap der FAS 2003 – 2006;84
4.7;7 Avatare im E-Learning und E-Business;86
4.7.1;7.1 Chatbots, Avatare und Agenten;86
4.7.1.1;7.1.1 Agent;86
4.7.1.2;7.1.2 Chatbot;88
4.7.1.3;7.1.3 Avatar;89
4.7.1.4;7.1.4 Talking Head;89
4.7.1.5;7.1.5 Embodied Conversational Agent;90
4.7.2;7.2 Zusatznutzen von Avataren;90
4.7.3;7.3 Einsatzgebiete von Avataren;92
4.7.3.1;7.3.1 E-Learning;92
4.7.3.2;7.3.2 E-Business;93
4.8;8 Gesprächskompetenz digitaler Agenten;96
4.8.1;8.1 Der Turing-Test;97
4.8.2;8.2 Der Loebner-Preis;98
4.8.3;8.3 Chatbots;99
4.8.4;8.4 Information-Retrieval;101
4.9;9 Checkliste der erforderlichen Kompetenzen für IT-Experten;104
4.9.1;9.1 Rollenträger;104
4.9.2;9.2 Markup-Sprachen;105
4.9.3;9.3 Programmiersprachen;105
4.9.4;9.4 Administration;106
4.9.5;9.5 Multimedia;107
5;Teil II Für Content- und Software-Entwickler: Das I- can- EIB- System;109
5.1;10 Portal;110
5.1.1;10.1 Einleitung;110
5.1.2;10.2 Begriffsde.nition;110
5.1.3;10.3 Referenzarchitektur;111
5.1.4;10.4 Portal-Software;111
5.1.4.1;10.4.1 Portal-Anwendungen;112
5.1.4.2;10.4.2 Portal-Basisdienste;112
5.1.5;10.5 Lösungen auf Open-Source-Basis;113
5.1.6;10.6 Das TikiWiki-System;115
5.1.6.1;10.6.1 Einbinden von Portal-Anwendungen;116
5.1.6.2;10.6.2 Das Template-System „Smarty ;117
5.2;11 Sprache;118
5.2.1;11.1 Einführung und Grundlagen;118
5.2.1.1;11.1.1 SAMPA;120
5.2.1.2;11.1.2 BOMP;121
5.2.2;11.2 Sprachsynthese;121
5.2.2.1;11.2.1 Verfahren der Sprachsynthese;122
5.2.2.2;11.2.2 Diphonsynthese;123
5.2.2.3;11.2.3 Unit-Selection;124
5.2.2.4;11.2.4 Mikrosegmentsynthese;125
5.2.3;11.3 TTS-Systeme;125
5.2.3.1;11.3.1 MBROLA;126
5.2.3.2;11.3.2 HADIFIX;127
5.2.3.3;11.3.3 IMS-Festival;127
5.2.3.4;11.3.4 G DATA Logox;128
5.2.4;11.4 Modellbasierte visuelle Synthese;128
5.2.4.1;11.4.1 Parametrische Modelle;129
5.2.4.2;11.4.2 Muskelbasierte Gesichtsanimation;129
5.2.5;11.5 Steuermodelle;130
5.2.5.1;11.5.1 Viseme;130
5.2.5.2;11.5.2 Koartikulationsmodelle;130
5.2.5.3;11.5.3 Triphonmodelle;131
5.2.6;11.6 Lippensynchronisation;131
5.2.7;11.7 Zusammenfassung;133
5.3;12 Der Avatar „EIBY ;134
5.3.1;12.1 Einleitung;134
5.3.2;12.2 Grundlegende Architektur;136
5.3.3;12.3 Modell und Animation;138
5.3.3.1;12.3.1 Mimik;139
5.3.3.2;12.3.2 Spezi.kation von Avatar-Modellen;141
5.3.3.3;12.3.3 Avatar-Modellierung in ICE-FaceXML;142
5.3.3.4;12.3.4 Steuerung über Low-Level-Animationen;145
5.3.4;12.4 Verhalten;149
5.3.4.1;12.4.1 Herstellung von Glaubwürdigkeit und Vertrauen;149
5.3.4.2;12.4.2 Darstellung von Emotionen;150
5.3.4.3;12.4.3 Steuerung über High-Level-Animationen;153
5.3.4.4;12.4.4 Übertragbarkeit auf andere Modelle;155
5.3.5;12.5 EDGAR – der Avatar-Editor;156
5.3.5.1;12.5.1 Einleitung;156
5.3.5.2;12.5.2 Tour durch den Editor EDGAR;158
5.4;13 Gesprächskompetenz im I-can-EIB-System;164
5.4.1;13.1 Vorgehensmodell zur Verbesserung der Gesprächskompetenz;164
5.4.2;13.2 Open-Source-Chatbots;168
5.4.2.1;13.2.1 Selbstlernende Chatbot-Systeme;168
5.4.2.2;13.2.2 AIML-Chatbots;169
5.4.3;13.3 A.L.I.C.E.;170
5.4.3.1;13.3.1 Kompetenzerwerb durch Supervised Learning;170
5.4.3.2;13.3.2 A.L.I.C.E.-Server;171
5.4.3.3;13.3.3 Verarbeitung der natürlichen Sprache;173
5.4.3.4;13.3.4 Web-Applikation;177
5.4.3.5;13.3.5 Wissensrepräsentation mit AIML;179
5.4.3.6;13.3.6 Generierung der Antworten;183
5.4.3.7;13.3.7 Tools zur Bearbeitung und Analyse von AIML-Dateien;187
5.4.3.8;13.3.8 Einbindung von Skriptsprachen in die Antwort-Templates;191
5.4.4;13.4 Wissensbasen;193
5.4.4.1;13.4.1 Einsteigerberatung;194
5.4.4.2;13.4.2 Information-Retrieval-Systeme;208
5.4.4.3;13.4.3 Information-Mining dynamischer Inhalte aus dem Web;216
5.4.4.4;13.4.4 Zugriff auf Wissen über einen Index;225
5.5;14 Wissensmarktplatz mit Agenten und Avataren;230
5.5.1;14.1 Einleitung;230
5.5.2;14.2 Architektur;232
5.5.2.1;14.2.1 Chatsystem (VNet);235
5.5.2.2;14.2.2 Agentensystem (JADE);242
5.5.2.3;14.2.3 Chatbot-Integration (A.L.I.C.E.);263
5.5.2.4;14.2.4 CMS-Anbindung;266
5.5.3;14.3 Entwicklung mit VRML, AgentScript und JADE;267
5.5.3.1;14.3.1 Virtual Reality Modelling Language (VRML);267
5.5.3.2;14.3.2 AgentScript und eine JADE-Implementation;268
5.5.3.3;14.3.3 JADE-Verhaltensentwicklung für AgentScript;281
5.5.3.4;14.3.4 Beispiel für die Entwicklung eines Verhaltens;284
5.5.3.5;14.3.5 Agenten zur Raumerstellung und Kon.guration;287
5.6;15 Entwicklung und Integration von Rich Media Learning Objects;292
5.6.1;15.1 Rich Media Content im E-Learning;292
5.6.1.1;15.1.1 Das Projekt I-can-EIB;293
5.6.2;15.2 Entwicklung von Rich Media Content im E-Learning;294
5.6.2.1;15.2.1 Fein- und Grobkonzept von Lerninhalten;295
5.6.2.2;15.2.2 Drehbuchentwicklung;298
5.6.2.3;15.2.3 Erstellung ablauffähiger Lernsequenzen;299
5.6.2.4;15.2.4 Implementierung, SCORM-Metadaten;300
5.6.3;15.3 Der XML-Drehbucheditor;301
5.6.3.1;15.3.1 Beschreibung der Eingabefelder;303
5.7;16 Standardisierung der Lerneinheiten;310
5.7.1;16.1 Entwicklung eines Drehbucheditors zur Unterstützung von Autoren bei der Content- Entwicklung;310
5.7.2;16.2 Content-Standardisierung: ADL-SCORM;311
5.7.3;16.3 Generierung SCORM-kompatibler Lerneinheiten;316
5.8;17 Evaluation;320
5.8.1;17.1 Evaluationsobjekt I-can-EIB-Avatar;321
5.8.2;17.2 Fragebogen;321
5.8.3;17.3 Pre-Post-Testdesign;322
5.8.4;17.4 Datenanalyse und statistische Auswertung;322
5.8.5;17.5 Ergebnisse;324
5.8.6;17.6 Zusammenfassung und Resümee;327
6;Teil III Für Administratoren: Installation und Kon.guration;330
6.1;18 Portal;332
6.1.1;18.1 Systemvoraussetzungen;332
6.1.2;18.2 Apache HTTP-Server;333
6.1.3;18.3 PHP Version 4;333
6.1.4;18.4 MySQL;334
6.1.4.1;18.4.1 Installation;334
6.1.4.2;18.4.2 Starten des MySQL-Dämons;334
6.1.4.3;18.4.3 Erstellung der Tiki-Datenbank;335
6.1.4.4;18.4.4 PHPMyAdmin;335
6.1.5;18.5 TikiWiki;336
6.2;19 Gesprächskomponenten des I-can-EIB-Systems;338
6.2.1;19.1 TreeTagger;338
6.2.1.1;19.1.1 Installationsvoraussetzung;338
6.2.1.2;19.1.2 Installation;338
6.2.1.3;19.1.3 Kon.guration;339
6.2.1.4;19.1.4 Programmstart;339
6.2.1.5;19.1.5 Anmerkungen zur Nutzung als Web-Service;339
6.2.2;19.2 A.L.I.C.E.;339
6.2.2.1;19.2.1 Installationsvoraussetzungen;339
6.2.2.2;19.2.2 Installation;340
6.2.2.3;19.2.3 Kon.guration Kon . guration des A. L.I.C.E.-Servers;340
6.2.2.4;19.2.4 Eine Web-Applikation erzeugen;343
6.2.2.5;19.2.5 Auf dem Server installieren;343
6.2.2.6;19.2.6 Wissensinhalte verfügbar machen;343
6.2.3;19.3 Webbasierte Datenextraktion mit W3xtract;344
6.2.3.1;19.3.1 Installation;344
6.2.3.2;19.3.2 Kon.guration und Wartung;344
6.2.3.3;19.3.3 Zeitgesteuerte Ausführung;345
6.2.3.4;19.3.4 XPath-Ausdruck ermitteln;346
6.2.3.5;19.3.5 Alternative HTML-Parser;347
6.3;20 Avatar-System;348
6.3.1;20.1 Installation;348
6.3.1.1;20.1.1 Allgemeines;348
6.3.1.2;20.1.2 Systemanforderungen;348
6.3.1.3;20.1.3 Installation des Avatar-Editors EDGAR;350
6.3.1.4;20.1.4 Installation des Java-Applets;350
6.3.1.5;20.1.5 Das Applet in der Initialisierungsphase;350
6.3.2;20.2 Kon.guration;352
6.3.2.1;20.2.1 Einleitung;352
6.3.2.2;20.2.2 Kommunikation zwischen Applet und Server;352
6.3.2.3;20.2.3 Die Applet-Parameter;354
6.3.2.4;20.2.4 Anbindung alternativer TTS-Engines;355
6.4;21 3D-Multiagentensystem;356
6.4.1;21.1 Installation;356
6.4.1.1;21.1.1 Systemanforderungen;356
6.4.1.2;Clientseite;356
6.4.1.3;Serverseite;357
6.4.1.4;21.1.2 Installation des MAS-Systems;357
6.4.1.5;Installation der Komponenten;358
6.4.1.6;Neukompilierung des Systems;359
6.4.2;21.2 Kon.guration;359
6.4.2.1;21.2.1 VNet-Client/Server-Kon.guration;360
6.4.2.2;21.2.2 JADE-Eigenschaften;360
6.4.2.3;Kon.gurationsdateien;360
6.4.2.4;Element;361
6.4.2.5;Element;362
6.4.2.6;Element;362
6.4.2.7;Element;363
6.4.2.8;Element;363
6.4.2.9;Element;363
6.4.2.10;Beispiel;363
6.4.2.11;21.2.3 Ausstellungskon.gurator;365
7;Teil IV Anhang;369
7.1;A Avatar-Beschreibungssprache;370
7.1.1;A.1 ICE-FaceXML-DTD;370
7.1.2;A.2 ICE-FaceXML-Tags-Übersicht;371
7.1.2.1;A.2.1;371
7.1.2.2;A.2.2;371
7.1.2.3;A.2.3;371
7.1.2.4;A.2.4;371
7.1.2.5;A.2.5;371
7.1.2.6;A.2.6;372
7.1.2.7;A.2.7;372
7.1.2.8;A.2.8;372
7.1.2.9;A.2.9;372
7.1.2.10;A.2.10;373
7.1.2.11;A.2.11;373
7.1.2.12;A.2.12;373
7.1.3;A.3 Beispiel für eine Avatar-Beschreibung;373
7.2;B Avatar-Animationssprache;374
7.2.1;B.1 ICE-FaceAnimXML-DTD;374
7.2.2;B.2 ICE-FaceAnimXML-Tags-Übersicht;374
7.2.2.1;B.2.1;374
7.2.2.2;B.2.2;375
7.2.2.3;B.2.3;375
7.2.2.4;B.2.4;375
7.2.2.5;B.2.5;375
7.2.2.6;B.2.6;376
7.2.2.7;B.2.7;376
7.2.2.8;B.2.8;376
7.2.3;B.3 Avatar-Animationssprache – Beispielaufbau;376
7.3;C Beispiel einer Raumerstellung in VRML;378
7.4;D De.nition AgentScript Markup Language;388
7.5;E W3xtract;390
7.5.1;E.1 Das Wetterbeispiel;390
7.5.2;E.2 W3xtractCon.g-DTD;391
7.5.3;E.3 W3xtractCon.g-Tags-Übersicht;391
7.5.3.1;E.3.1;391
7.5.3.2;E.3.2;391
7.5.3.3;E.3.3;391
7.5.3.4;E.3.4;391
7.5.3.5;E.3.5;391
7.5.4;E.4 W3xtractCon.g – Beispielaufbau;392
7.5.5;E.5 W3xtractJob-DTD;392
7.5.6;E.6 W3xtractJob-Tags-Übersicht;393
7.5.6.1;E.6.1;393
7.5.6.2;E.6.2;393
7.5.6.3;E.6.3;393
7.5.6.4;E.6.4;393
7.5.6.5;E.6.5;393
7.5.6.6;E.6.6;393
7.5.6.7;E.6.7;394
7.5.6.8;E.6.8;394
7.5.6.9;E.6.9;394
7.5.6.10;E.6.10;394
7.5.6.11;E.6.11;394
7.5.6.12;E.6.12;394
7.5.7;E.7 W3xtractJob – Beispiel;395
7.6;F VRML Interchange Protocol;396
7.6.1;F.1 Einführung;396
7.6.2;F.2 VRML-Feld-Typenkodierung;396
7.6.3;F.3 Nachrichtenformat;397
7.6.3.1;F.3.1 Objekt;397
7.6.3.2;F.3.2 Feld;397
7.6.3.3;F.3.3 Wert;398
7.6.4;F.4 Pseudofelder reserviert von VNet;398
7.6.5;F.5 Beispiele zum Nachrichtenaustausch;399
7.7;G De.nition Wissensmarktplatz-Kon.guration;400
7.8;H Phonem-Übersicht;402
7.9;I LERNET-Partner;406
7.10;J Quellenangaben zu den Abbildungen;409
7.11;K Abkürzungs- und Akronymverzeichnis;410
7.12;Literaturverzeichnis;420
8;Index;436
11 Sprache (S.101)
Holger de Vries
Wer spricht, besitzt eine Sprache. Wie wird aber aus einer Folge von Geräuschen etwas Verständliches? Welche Bestandteile hat eine Sprache? Wie wird dieses abstrakte Gebilde auf die informatischeWelt übertragen? Diesen und ähnlichen Fragen wird im folgenden Kapitel nachgegangen.
11.1 Einführung und Grundlagen
Das Sprechen kann unter Gesichtspunkten der Phonetik1 und der Phonemik2 betrachtet werden, diese gilt es für den Anfang zu unterscheiden. Die Phonetik ist die wissenschaftliche Erforschung des gesamten lautbildenden Potentials des Menschen. Wird im Allgemeinen von Phonetik gesprochen, ist meistens das Gebiet der artikulatorischen Phonetik gemeint, die die anatomischen und physiologischen Grundlagen der Lauterzeugung (den Artikulationsapparat) untersucht.
Die Phonemik (oder Phonologie) untersucht Systeme von Phonemen, den kleinsten bedeutungsunterscheidenden Elementen einer Sprache. Sie untersucht die Beziehung der Phoneme zueinander sowie deren Funktion in dieser Sprache und in welcher Weise das universelle menschliche Lautbildungspotential in einzelnen Sprachen ausgeschöpft wird (vgl. [Linke u. a. 2004]).
Die Grundeinheit der Phonetik ist das Phon. Es ist die „kleinste durch Segmentierung (Zerlegung) gewonnene lautliche Einheit, die noch nicht als Repräsentant eines bestimmten Phonems klassi.ziert ist" (vgl. [Bußmann 1990]). Grundeinheit der Phonologie ist das Phonem. Es ist das „kleinste aus dem Schallstrom der Rede abstrahierte lautliche Segmente mit potentiell bedeutungsunterscheidender Funktion" (vgl. [Bußmann 1990]).
Die lautliche Repräsentation von Phonemen geschieht durch Phone. Um das Phoneminventar, die Zusammenstellung aller existierenden Phoneme einer Sprache, zu ermitteln, erfolgt u. a. eine Betrachtung von Minimalpaaren (distinktive Opposition). Dies sind Paare von Wörtern, die sich nur in einem Laut (oder Phon) unterscheiden, wie etwa Bein - Pein, Hase - Hose oder Mutter - Butter. Mittels dieser Paare werden also /b/ - /p/, /a/ - /o/ und /m/ - /b/ als Phoneme identifiziert.Phonologische Repräsentationen werden üblicherweise in Schrägstriche gesetzt und durch die Lautschriftsymbole des Internationalen Phonetischen Alphabets (IPA) dargestellt (vgl. [Linke u. a. 2004]).
Das Internationale Phonetische Alphabet wird verwendet, wenn eine lautgenaue Verschriftlichung gesprochener Sprache erfolgen soll. Es ist eine Sammlung von Zeichen, mit denen die Laute aller Sprachen der Welt genau beschrieben und damit einer Analyse zugänglich gemacht werden können. Das Internationale Phonetische Alphabet wird gepflegt, verwaltet und weiterentwickelt von der International Phonetic Association3. Eine Übersicht mit allen Lautzeichen des Internationalen Phonetischen Alphabets findet sich auf der Homepage der IPA.
Welche Laute sind für die deutsche Sprache von Bedeutung? Die Bildung von Lauten nennt man Artikulation, diese werden grundsätzlich in Konsonanten (Mitlaute) und Vokale (Selbstlaute) unterschieden, außerdem in stimmlose und stimmhafte Laute. Alle Vokale sind stimmhaft, Konsonanten können stimmhaft oder stimmlos sein.
Die Produktion von Konsonanten wird charakterisiert nach Artikulationsort und Artikulationsart. Folgende Artikulationsorte und damit Artikulatoren sind für das deutsche Konsonantensystem von Bedeutung (vgl. [Klein 2005], [Linke u. a. 2004]):
• Bilabialer Laut von Unter- und Oberlippe erzeugt (Pein (/p/)).
• Labiodentaler Laut von Unterlippe und oberen Schneidezähnen erzeugt (fast /f/).




