Humboldt-Universität zu Berlin - Mathematisch-Naturwissenschaftliche Fakultät - Institut für Informatik

Vorlesungsverzeichnis Sommersemester 99

Humboldt Universität Berlin
Institut für Informatik




Praktische Informatik 2 (D, L, M, N) D: 2. Sem.

Fortsetzung der Grundvorlesung im zweiten Semester: Computer, Algorithmen, Daten, Programme, Agenten, ... - wie geht man damit um und wie erzeugt man gute Software. Techniken werden im Praktikum mit den Sprachen JAVA und PROLOG trainiert.

Technische Informatik 1 (D) D: 2. Sem.

Teil 1 der Ausbildung in Techn. Informatik
 
Die Technische Informatik 1 führt in die technischen Grundlagen der Informatik ein. Im ersten Teil "Grundlagen" (ab SS 99) werden die Gebiete der Elektrotechnik behandelt, die für die Digitaltechnik relevant sind: Netzwerkanalyse, Transistorschaltungen, Logikgatter, Schaltkreisfamilien. Im zweiten Teil "Digitaltechnik" (ab WS 99/00) wird die Analyse und Synthese digitaler Systeme behandelt: Schaltalgebra, Minimierungsverfahren, kombinatorische und sequentielle Schaltungen, programmierbare Logikschaltungen, arithmetisch-logische Einheiten, Prozessor- und Interface- Strukturen.
 

Elektrotechnische Grundlagen der Informatik (D; fak.) D: 2. Sem.

Der im obligatorischen 1. Teil des Praktikums TI 1 benötigte Stoff wird - durch Experimente unterstützt - vermittelt. Inhaltliche Schwerpunkte: Grundstromkreis und Berechnungen - Bauelemente Widerstand/ Kondensator/ Spule - Wechselstromkreise - Halbleiter-Bauelemente - Grundschaltungen mit HL-Bauelementen - elektrische Versorgungsnetze
 

Theoretische Informatik 3 (D) D: 4. Sem.

Im Zentrum der Vorlesung stehen die Begriffe der NP-Vollständigkeit, der Effizienz von Algorithmen und Datenstrukturen. Es werden erste algorithmische Prinzipien zur approximativen oder randomisierten “Lösung“ NP-vollständiger Probleme vorgestellt. Objektorientierung in der Softwareentwicklung
 

Technische Informatik 1 (D) D: 4. Sem.

Teil 3 des obligatorischen Praktikums Inhalt der Versuche: Entwurf von Automaten, Halbleiterspeicher, Programmierbare Logik, Mikroprozessor, Mikrosteuerwerk
 

Technische Informatik 2 (D; M) D: 4. Sem.

Einführung in die Rechnerorganisation, Begriffe, Grundkonzepte und Prinzipien; Einprozessorarchitektur: Spezifikation, Entwurf, Implementation, Speicherhierarchie, arithmetische Einheiten, Betriebssysteme, Eingabe-Ausgabe Architektur, Kommunikation; weiterführende Konzepte: Pipelining, Parallelverarbeitung, Paralleles und Verteiltes Rechnen.
 

Informatik und Gesellschaft (D; L - Pflichtfach im Hauptstudium)

Was ist und was will die Informatik? Was sind ihre historischen Wurzeln? Computer und Arbeit; Anforderungen, Möglichkeiten, Zwecke des Einsatzes von Computern; Computer als Werkzeug, Automat und Medium; Ethische und rechtliche Fragen der Informatik.
 

Einführung in die Informatik (N; Fremdsprachen)

Ziel der VL ist die Vorbereitung von Nebenfachstudent(inn)en mit geringen Kenntnissen auf die VL, die das Informatik-Curriculum vorsieht. Schwerpunkte: Grundbegriffe und Teilgebiete der Informatik; Zahlensysteme uund Informationsdarstellung; Computerinterne Informationsdarstellung; Algorithmen - Grundlagen, Eigenschaften und Darstellung; Programmierung und Programmiersprachen; Einführung in MODULA-2; Struktur und Organisation von Rechnern; Betriebssysteme von Computern. Durch Rechen- und Rechner-Übungen werden die Kenntnisse aus der Vorlesung vertieft.
 

Analyse, Planung und Beurteilung von informatikunterricht (L)


 

Unterrichtspraktikum/ Blockpraktikum (L)

Zur Betreuung des Schulpraktikums werden wir uns vor, während und nach dem Schulpraktikum gemeinsam treffen, über Erwartungen, Voraussetzungen und Bedingungen sprechen und die Erfahrungen auswerten. Während des Praktikums werde ich Sie an den Schulen besuchen und Ihre Unterrichtsstunden mit Ihnen und der/ dem zuständigen Fachlehrerin/ Fachlehrer besprechen.
 

Programmierung von “Agenten“ (D)

Als “Agenten“ werden “autonome“ und zuweilen auch “intelligente“ Programme bezeichnet. Im Pro-Seminar geht es um den Einsatz und die Implementation solcher Programme.
 

Architekturen für Fehlertoleranz, Echtzeit und Sicherheit (D)

Da immer größere Bereiche des menschlichen Lebens von Computern abhängen, werden nach der Rechenleistung auch Eigenschaften wie Fehlertoleranz, Echtzeitfähigkeit und Sicherheit immer wichtiger. Dieses Proseminar untersucht sowohl Standard- als auch speziell für die genannten Ziele hin entworfene Systeme und führt in das Gebiet “verläßliche Systeme“ ein.
 

SGML im Web (D)

HTML, die Sprache des Web, sowie XML als deren designierter Nachfolger basieren auf der Auszeichnungssprache SGML. Im Proseminar sollen SGML, darauf aufbauende Spezifikationen sowie entsprechende Anwendungen im Web vorgestellt werden.
 

Computeralgebra (D)

Vermittelt werden Grundlagen und Techniken des Arbeitens mit einem Computeralgebrasystem (CAS) am Beispiel von Mathematica. Ziele sind das Verstehen- Anwenden-Programmieren-Präsentieren von und mit CAS. Informationen unter http://www.informatik.hu-berlin.de/~neuendor/ca-kurs/
 

Syntaxtheorie

Für die Untersuchung der Syntax von Programiersprachen sind Kenntnisse über die Eigenschaften von formalen Sprachen die Grundlage. Inhalt des PS ist das Studium von Generierungsverfahren, die sich zur Definition von formalen Sprachen eignen, sowie deren Charakterisierung. Es handelt sich dabei um Regelsprachen (reguläre, kontextfreie, kontextsensitive).
 

Optische Signalübertragung und -verarbeitung (D)

Im PS sollen die Grundlagen der optischen Signalübertragung und -verarbeitung (Aufbau und Funktion von Lichtwellenleitern, Laserdioden, Fotodioden, Schalter, Modulatoren, Systeme aus diesen Komponenten) vermittelt, einfache Aufgaben gelöst und von den Teilnehmern Vorträge zu Teilgebieten erarbeitet werden.
 

Natürlichsprachliche Kommunikation zwischen Mensch und Maschine (D)

Im PS werden verschiedene Anwendungen diskutiert, die natürliche Sprache maschinell verarbeiten. Angefangen bei Weizenbaums pattern matching-System ELIZA sollen verblüffend einfache und komplizierte Beispiele von Suchmaschinen bis Spracherkennung vorgestellt und bewertet werden
 

Teleteaching (D)

Die Anforderungen an das universitäre Lernen hat sich in den letzten Jahrzehnten radikal verändert, von der sozialen und kulturellen Initialisierung zu einem Prozeß lebenslangen Lernens in der Informations- oder Wissensgesellschaft. Diesem Wandlungsprozeß kommen die neuen Digitalen Medien entgegen. Multimedia und Internet versprechen eine neue Technologie des Lernens, die die neue Technik lebenslangen Lernens erleichtern sollen. Thema des SE sind die technischen Grundlagen und die kulturellen und sozialen Wechselwirkungen dieser Techniken.
 

Entwicklung betrieblicher Informationssysteme (D)

Die Entwicklung betrieblicher Informationssysteme ist eine komplexe Aufgabe, weil dabei eine Vielzahl von Abläufen, Geschäftsprozessen und Geschäftsregeln eines Unternehmens zu berücksichtigen sind. Im Proseminar geht es sowohl um die Modellierung als auch um Techniken und Werkzeuge zur Implementation betrieblicher Informationssysteme. Sie lernen die wichtigsten Herausforderungen und noch zu lösenden Probleme dieses Gebietes kennen.
 

Graphentheorie (D)

Dieses PS soll eine Einführung in verschiedene Teilgebiete der Graphentheorie bieten. Dabei steht die enge Verknüpfung zwischen eleganten theoretischen Ergebnissen und effizienten Algorithmen im Mittelpunkt.
 

Entwurf komplexer digitaler Schaltungen (D)

In dem PS wird eine Einführung in die Praxis des Entwurfs komplexer digitaler Schaltkreise, ausgehend von abstrakten Verhaltensbeschreibungen (VHDL) bis zur Programmierung von Prototypen gegeben. Schwerpunkte: Verhaltensbeschreibung, Verhaltenssimulation, Schaltungssynthese, ASIC, Prototyping mit FPGA-Strukturen
 

Medizininformatik (D)

Im PS sollen aktuelle Trends des Einsatzes der Informatik im medizinischen Bereich beleuchtet werden. Besonderes Augenmerk wird auf die komplexen Strukturen, die man in modernen Großklinika, wie der Charite', vorfindet gelegt. Spezialthemen werden Telemedizin, Elektronische Patientenakten, Robotertechnik, Intra-/Internet und Agenten- orientiertes Design darstellen. Das PS wird durch Excursionen zur Charite'(Labor, Rechenzentrum, OP-Robotersaal) ergänzt.
 

Unix - Werkzeuge und X11-Programmierung (HK)

Der Halbkurs behandelt ausgewälte Kommandos und Technologieprogramme des Betriebssystems UNIX sowie die Programmierung von Anwendungen mit graphischem Nutzerinterface auf der Basis von X11 und Tcl/Tk. Zum Halbkurs werden Praktikumsaufgaben vergeben. Das erfolgreiche Lösen der Aufgaben ist Voraussetzung für die Zulassung zur Halbkursprüfung nach dem Sommersemester.
 

Tools der Softwaretechnik (HK)

Die Vorlesung richtet sich an Studenten des Diplom-Studiums und an Nebenfachstudenten, die ihre Informatikkenntnisse verbreitern wollen. Es werden Werkzeuge zur objektorientierten Projekt- und Softwareentwicklung behandelt. Skriptsprachen für WWW, Strukturmodelle von Betriebssystemen und Softwarepaketen auf der Basis von UNIX, NeXT und NT sollen ebenfalls diskutiert werden.
 

CORBA (HK)

CORBA ist ein Modell für die Entwicklung verteilter objektorientierter Anwendungen. Die Vorlesung stellt die Komponenten dieser Architektur und darauf aufbauende Dienste vor. Großen Raum nehmen Programmierbeispiele ein, die in der begleitenden Übung besprochen werden.
 

Objektorientierte Spezifikations- und Implementationstechniken [OSIT] (K - 2. Teil)

Der Kurs gibt eine Einführung in Grundprinzipien der Objektorientierung und stellt diese einerseits im Kontext der standardisierten Spezifikationssprache SDL (Fischer) und andererseits in ihrer Umsetzung in C++ (Ahrens) vor. Ein Praktikum begleitet den Kurs (von Löwis).
 

Objektorientierte Analyse und Design [OOA/D] (K - 2. Teil)

Der Kurs stellt Methoden zum Entwurf, zur Modellierung und zur simulativen Analyse komplexer Systeme vor. Als Entwurfs- und Modellierungssprache wird dabei die von der OMG standardisierte Notationstechnik UML eingesetzt. Eine in C++ implementierte Prozessbibliothek bildet die Basis fuer eine zeitdiskrete Ereignissimulation.
 

Projekt: Der überwachte Roboter (HK)

Mit Hilfe eines Joysticks wird ein Roboter durch einen Bediener ferngesteuert und über eine Kamera überwacht. Der Bediener kann auf seinem Monitor die reale Position des Roboters (entsprechend dem Videobild) mit den vom Roboter gemeldeten Positionsangaben vergleichen und korrigieren. Die Kommunikation zwischen Bedienerstandort und Roboterstandort erfolgt auf ATM-Basis. Es werden Lehrinhalte sowohl aus dem Bereich der Technischen Informatik wie auch der Praktischen Informatik in ihrer Integration vermittelt: Projektmanagement, Netztechnologien und -management, Dienstgüte und Verläßlichkeit, verteilte Objekttechnologien, Software- Engineering. Voraussetzung: Teilnahme am Projekt (Teil 1) im WS 98/99
 

Software Engineering (HK)

Software Engineering beschäftigt sich mit Methoden der systematischen Entwicklung komplexer Software. Der Halbkurs gibt eine Einführung in das Gebiet: Vorgehensmodelle, Software-Qualität, Standardisierung (ISO 9000 u. a.), Aufwandsabschätzung, Beschreibungskonzepte für Softwaredokumente, Requirements Engineering, formale Spezifikation von Software, Software-Architekturen, Objektorientierung, CASE, Testmethoden, Reverse Engineering, Software-Metriken u.a.
 

Projekt: Software-Sanierung

Nicht so sehr die Neuentwicklung, sondern vielmehr die Wartung existierender Software macht heutzutage den Hauptanteil der Tätigkeit eines Informatikers aus, wobei hier wiederum die meiste Zeit für das Verständnis der Programme aufgewendet werden muss. Aus dem Institut für Physik der HU gibt es eine Anfrage mit der Bitte um Unterstützung: Ein am dortigen Institut entwickeltes Steuerprogramm besitzt trotz Nutzung von C++ als Implementationssprache eine ungünstige SW-Architektur, wodurch es nicht mehr beherrschbar (wartbar) ist. In unserem Projekt wollen wir mittels Reverse Engineering- Methoden und entsprechenden CASE-Tools (McCabe-Tool, ParadigmPlus, Sniff) die Software aufbereiten und geeignet restrukturieren. Weitere Details: siehe Web-Seite
 

Cluster-Computing Projekt (HK)

In diesem Projekt werden Softwarekomponenten zur verteilten Ausführung auf einem Linux-Cluster mit Hochgeschwindigkeitsnetzwerk zunächst entwickelt und dann auf einem PC Cluster der GMD FIRST implementiert. Die Themen umfassen eine einfache Betriebsplattform CLIX (Cluster Linux) und ein Laufzeitsystem zur verteilten Ausführung von Programmen, das einen virtuellen, gemeinsamen Speicher simuliert (DSM-Threads). Voraussetzung: Prüfung bzw. Leistungsnachweis: Cluster- Computing VL/ Konzepte nebenläufiger und verteilter Programmierung/ Parallele und Verteilte Rechnerarchitekturen; Kenntnisse: C/ C++/ UNIX/ LINUX
 

Parallelisierende Compiler (HK)

Wie wird erkannt, ob Schleifen und Prozeduren parallelisierbar sind? Und wie werden die Kontroll- und Datenstrukturen auf einen Parallelrechner verteilt? In dieser einführenden Vorlesung werden Parallelisierungsmethoden vorgestellt und die Techniken der Analyse, Synthese und Optimierung parallelisierender Compiler anhand praktischer Beispiele diskutiert.
 

Umweltmonitoring (HK)

Ziel der LV ist die Vermittlung ausgewählter Methoden und Verfahren des Umweltmonitorings. Schwerpunkte: Datenkommunikation und Bussysteme für Meßnetze; Struktur von Umweltmeßnetzen; Meßnetze und Meßnetzzentralen für Luft, Wasser und Boden; Technische Umweltinformationssysteme; Partielle DGLn für Transportvorgänge; Schadstoffausbreitungen in Luft bzw. im Wasser; Lösungsverfahren, Programmierung und Simulationen in Punktgittern. Durch Programmier- und Rechnerübungen werden die Kenntnisse aus der VL vertieft. Für LA-Studenten dient der Halbkurs der Vorbereitung eines Projektes.
 

Digitale Medien (HK)

Computer lassen ihre eigentliche Bestimmung durch Multimedia und Vernetzung erkennen: Es sind digitale Medien, die alle bisherigen Massen- und Kommunikationsmedien simulieren, kopieren oder ersetzen können. Die kurze Geschichte elektronischer Medien vom Telegramm bis zum Fernsehen wird so zur Vorgeschichte des Computers als Medium. Der Prozeß der Mediatisierung der Rechnernetze soll in Technik, Theorie und Praxis untersucht werden.
 

Konzepte für die frühen Phasen der Softwareentwicklung (HK)

Die meisten Probleme bei der Softwareentwicklung resultieren aus den frühen Phasen! Inwieweit lassen sich diese methodisch unterstützen? Brauchen wir Modelle? Wie kommt man von der Realität methodisch kontrolliert zu brauchbarer Software? Welche Ansätze und Konzepte sind bekannt? Dargestellt u.a. am Beispiel der Unterstützung von Entscheidungen
 

Implementierung von Datenbanksystemen (HK)

In dieser Vorlesung werden Implementationsaspekte moderner Datenbanken vorgestellt, unterschiedliche Möglichkeiten bewertet und auf Effizienz hin untersucht. Teilbereiche sind Zugriffstrukturen, Anfragebearbeitung und -optimierung und Transaktionsverarbeitung.
 

Datenstrukturen und Algorithmen (HK)

Datenstrukturen sind Methoden zur logischen Organisation von Daten im Speicher. Sie organisieren Informationen so, daß effiziente Algorithmen möglich werden. Die VL behandelt einige Algorithmenparadigmen, Strukturen zur dynamischen Datenorganisation, Datenorganisation auf peripherem Speicher, Organisation digitaler Daten, sowie Strukturen und Algorithmen für multidimensionale und geometrische Daten.
 

Werkzeuge der empirischen Forschung (HK)

Es werden die Basis-Methoden der statistischen Datenauswertung vermittelt. Hierzu gehören die wichtigsten Methoden der beschreibenden und der schließenden Statistik. Die einzelnen Verfahren werden einschließlich grafischer Auswertungen durch das Programmpaket SAS (Statistical Analysis System) im Praktikum demonstriert.
 

Analyse von Petri-Netz-Modellen (HK)

Wie stellt man fest, ob ein durch ein Petri-Netz modelliertes (erdachtes) System eine erwünschte oder unerwünschte Eigenschaft hat? Die VL behandelt die theoretischen Grundlagen und praktische Verfahren zur Beantwortung dieser Frage.
 

Modelchecking (HK)

Manchmal reichen zur Prüfung der korrekten Arbeit von Systemen (z.B. Schaltkreisen, Protokollen, Programmen) Tests nicht aus. Die Vorlesung stellt Algorithmen vor, mit deren Hilfe Korrektheitsanforderungen automatisch überprüft werden können. Ein Schwerpunkt liegt auf verteilten Systemen.
 

Graphen und Algorithmen II (K - 2. Teil)

Die Vorlesung setzt den im Wintersemester 1998/99 abgehaltenen Teil 1 fort. Es werden anspruchsvollere Prinzipien der Graphenalgorithmen, insbesondere für NP-schwere Probleme betrachtet, u.a. Approximationsalgorithmen und randomisierte Verfahren. Die Vorlesung wird durch Übungen begleitet. Kenntnis des ersten Teils der Vorlesung ist wünschenswert, aber nicht notwendig.
 

Kryptologie (HK - 2. Teil)

Die VL setzt den gleichnamigen Kurs des Sommersemesters mit 2 SWS VL und 0,5 SWS Übungen fort und baut auf dem Stoff des 1. Semesters auf. Schwerpunkt dieses Semesters sind asymmetrische Verfahren, ihre Stärken und Schwächen. Ein besonderer Abschnitt ist dem RSA gewidmet, aber auch PGP, MD5 und elliptische Kurven werden erwähnt. Kenntnisse des Materials des ersten Semesters sind Voraussetzung.
 

DNA-Computing (HK - 1. Teil)

Aufsehenerregende Experimente haben in den letzten Jahren die prinzipielle Möglichkeit nachgewiesen, Algorithmen in biologischem Material zu codieren und auszuführen. Operationen auf DNA-Molekülen können sinngerecht als Rechenschritte interpretiert werden. Die VL schildert den Stand der Technik aus der Sicht der Informatik. Biologische und chemische Vorkenntnisse sind nicht erforderlich.
 

Grundlagen der digitalen Signalverarbeitung (HK)

Die VL ist zum Verständnis der HK Signalverarbeitung, Mustererkennung und Bildverarbeitung nützlich. VL: Einführung, Werkzeuge der Signalverarbeitung, Prinzip der kleinen Fehlerquadrate, Orthogonalität, Reihenentwicklungen und orthogonale Transformationen, schnelle Algorithmen, Zufallsfunktionen, Korrelation, Faltung; Ü: Histogramm und Entropie, Prinzip der kleinsten Fehlerquadrate, Polynom- und andere Approximationen, Orthogonalität, Fourierreihe und - transformation; PR: Werkzeuge der Signalverarbeitung mit Mathcad
 

Mustererkennung (HK)

VL: Einführung, Grundbegriffe, Vorverarbeitung, Merkmalsgewinnung, Merkmalsreduktion, Klassifikation, Anwendungsbeispiele; Ü: mehrdimensionale Statistik und Normalverteilung, Fourier- und Walshtransformation als Merkmalstransformation, Karhunen-Loève-Transformation, Abstandsklassifikatoren, Bayesklassifikator, kNN-Klassifikator, Fuzzy-Klassifikator; PR: Orthogonaltransformationen, Signalaveraging, Ereigniserkennung, Münzerkennung, Werkstückerkennung, Fuzzy-Klassifikator
 

Signalfilterung (HK)

Die VL behandelt Filterarten und Anwendungen, systemtheoretische Grundlagen zur Filterdimensionierung, Entwurfsmethoden für Analog-, SC- und Digitalfilter. Realisierung von rekursiven und nichtrekursiven Digitalfiltern mit Rechner-Programmen, Signalprozessoren und speziellen Digitalschaltungen. PR: Filterstrukturen unter LabVIEW, SC-Schaltungen
 

Prozeßinformatik (HK)

VL: Einführung, Darstellung und Modellierung technischer Prozesse, Prozeßdatenerfassung, BDE-Systeme, Technische Steuerungen wie SPS und Robotersteuerungen, Koordinationssteuerung, Regelkreise; PR: Datenerfassung (Programmierung von BDE-Terminals), Regelkreis, Kombinatorische und sequentielle Steuerung, Steuerung autonomer mobiler Roboter, SPS-Programmierung, Steuerung eines komplexen Fabrikmodells.
 

Hochleistungskommunikation (HK)

Multimediafähige Kommunkationstechniken mit hohen Datenraten (100 bis 1000 Mb/s); Nutzung und Verwaltung der Kommunikation in komplexen Netzen (LAN, WAN, MAN); Voraussetzung: HK Rechnerkommunikation oder solide Grundkenntnisse zur Kommunikation; Praktikum: Aufbau, Verwaltung, Untersuchungen an ATM-Netzen.
 

Robotik II (Manipulatoren)

Inhalte: Aufbau von Roboterarmen (Sesnsoren, Antriebe), Kinematik, Dynamik, Telemanipulation, Methoden zur Steuerung, Regelung, Planung, Stand der industriellen Technik, industrielle Anwendungen
 

Statistische Methoden der Qualitätssicherung

In der LV werden Verteilungsmodelle und statistische Methoden für die Qualitätssicherung behandelt. Schwerpunkte: Grundbegriffe (Zufällige Ereignisse, Wahrscheinlichkeiten, Stichproben); Verteilungen (diskrete, stetige, adaptive nach PEARSON u. BURR); Testverteilungen; Testtheorie (parametrische u. parameterfreie Tests); Stichprobenplanprüfungen (einfach, doppelt u. sequentiell); Prozeßfähigkeit; Qualitätsregelkarten (SHEWHART, PEARSON, KUSUM). Der Vorlesungsstoff wird durch Rechen- und Rechner-Übungen vertieft.
 

Lineare Optimierung

Die VL ist eine Einführung in die lineare Optimierung. Der Inhalt der VL sind Simplexverfahren und Dualität, sowie deren Anwendung zur Lösung von Transportproblemen und Verflechtungsaufgaben aus der Wirtschaft. Zur VL findet eine Übung statt.
 

Zuverlässigkeit von Kommunikationsnetzen

In der VL werden algebraische, kombinatorische und stochastische Methoden zur Analyse der Zuverlässigkeit von Kommunikationsnetzen vorgestellt. Voraussetzungen: keine.
 

Rechnereinsatz in der Schule

Computer werden heute in der Schule in verschiedenen Zusammenhängen und in verschiedenen Fächern eingesetzt. Themen der LV sind u.a.: Rechnereinsatz im Fachunterricht, “Schulen ans Netz“, Informationstechnische Grundbildung, Computer in der Freizeit von Jugendlichen. Die Erarbeitung der Inhalte erfolgt im Rahmen eines Planspiels.
 

UNIX-Administration

Es wird die Administration von UNIX-Systemen in inhomogenen Rechnernetzen betrachtet. Schwerpunkte sind: Nutzerverwaltung, Netzwerkmanagement (NIS, DNS), Sicherheitsfragen. Folgende UNIX-Systeme werden berücksichtigt: SunOS 4.1.3, Solaris 2.x, AIX 3.5, ULTRIX 4.4; DEC OSF/1 (UNIX).
 

Wie hilft der Zufall in der Informatik?

Randomisierte Algorithmen, probabilistische Existenzbeweise und quasi-zufällige Strukturen sind eindrucksvolle Beispiele für die Nutzung des Zufalls in vielen Bereichen der Informatik. Sie stehen im Mittelpunkt dieser VL.
 

Architektur paralleler Höchstleistungsrechner

Anhand aktueller Fallbeispiele werden Konzepte paralleler Höchstleistungsrechner vorgestellt: Vergleich moderner RISC-Prozessoren, Speichermanagement, Netzwerk- Topologien, Routing, parallele Ein-/Ausgabeeinheiten, Short Area Networks, SCI, Myrinet, VIA, Cluster Computing. Kenntnisse der Rechnerarchitektur werden vorausgesetzt.
 

Dreidimensionale Computergrafik

2D-Computergrafik, Geometrische Transformationen und Projektionen, Sichtbarkeitsbestimmung, Beleuchtung und Rasterisierung, Texturierung, Raytracing, Radiosity, Geometrische Repräsentationen, Splineflächen, 3D-Grafikformate, VRML, Szenenrepräsentationen für Multimediaanwendungen, Computeranimation, Interaktion, Wahrnehmung, Virtuelle Realität
 

Statistische Lernmaschinen

1. Grundlagen: Lernen als Risikominimierung; 2. Beispiele für empirische Risikominimierung; Neuronale Netze; 3. Komplexitäts-/Kapazitätsmasse der Lerntheorie: VC-Entropie, VC-Dimension; Strukturelle Risikominimierung; 4. Support- Vektor-Maschinen; 5. Beispiele unüberwachter Datenanalysemethoden: PCA, ICA, Kern-PCA
 

Identifikation und Stabilisierung Dynamischer Systeme

An den ausgewählten Beispielen eines Festplattenlaufwerkes und eines ATM-Netzwerkes wird die Repräsentation dynamischer Systeme im Zustandsraum und durch Polynome besprochen. Dabei wird auf Identifikationsverfahren (RLS), Stabilisierung durch Zustands- und Ausgangsrückführungen sowie die Prädiktion mit Diophantischen Gleichungen eingegangen. Es wird gezeigt, wie stochastische Störgrößen durch das Kalman-Filter einbezogen werden können und es wird die Robustheit bezüglich Dynamikänderungen mit der Hinf-Theorie diskutiert.
 

Künstliche neuronale Netze und Fuzzy Systeme (Eine Einführung)

Der größere Teil dieser VL widmet sich den künstlichen neuronalen Netzen. Neben grundlegenden Begriffen und geschichtlich interessanten Modellen wie dem McCulloch-Pitts-Neuron oder dem Perceptron von Frank Rosenblatt werden alle wichtigen Typen neuronaler Netze vorgestellt. Insbesondere werden Backpropagations- und RBF-Netze, Merkmalskarten (Kohonen-Netze) und Hopfield-Netze behandelt. Im 2. Teil der VL werden die Grundlagen von Fuzzy-Mengen, Fuzzy--Logik und Fuzzy-Zahlen erläutert und darauf aufbauend werden spezielle Fuzzy-Regler wie der Mamdani- oder der Sugeno/Tagaki-Regler vorgestellt. Zum Abschluß der VL wird auf die Kombinationsmöglichkeit von neuronalen Netzen und Fuzzy-System eingegangen und es werden eine Reihe von Ansätzen aus diesem Gebiet vorgestellt. Zusätzlich zur Vorlesung werden praktische Übungen angeboten.
 

Methoden der Integration heterogener Datenbestände

In den vergangenen Jahren sind viele Insellösungen mit eigenen Datenbeständen entstanden. Für inner- und überbetriebliche Anwendungen wie Data-Warehouses, Workflow-Management-Systeme, E-Commerce-Systeme oder auch einfache direkte Kopplungen ist die Integration dieser zumeist heterogenen Datenbestände unumgänglich. Diese Spezialvorlesung wird die Probleme und Lösungsmöglichkeiten beleuchten. Einen Schwerpunkt hierbei stellen föderierte Datenbanksysteme dar.
 

Intelligente Netze und CORBA

Intelligente Netze (IN) sind die Voraussetzung für die Ausführung von Telefoniediensten wie FreeCall und Televoting. Der Einsatz von CORBA als objektorientierte Verteilungsplattform für IN bietet viele Vorteile und neue Möglichkeiten für die Realisierung moderner Telekommunikationsdienste, wirft aber auch viele Fragen auf.
 

Techniken dynamischer Programmierumgebungen

Dynamische Programmierumgebungen benutzen eine Vielzahl von Verfahren zur Erbringung ihrer Leistung. In diesem SE sollen Beispiele hierfür von grundlegenden Mechanismen wie Speicherverwaltung, automatischer Garbage Collection und User- Level-Multi-Tasking bis hin zu komplexen Systemteilen wie Interpretern und dynamischen Compilern im Rahmen studentischer Vorträge vorgestellt und diskutiert werden.
 

Kooperatives Prototyping

SE zum HK "Kooperatives Prototyping". Hier werden insbesondere verschiedene Konzepte der Softwareentwicklung diskutiert. Besondere Schwerpunkte: Kooperation (Warum, mit wem), Evolution (zum Wissenserwerb, zur Komplexitätsbewältigung, zur Behandlung dynamisch sich ändernder Anforderungen), frühe Phasen (Systemanalyse), Objektorientierung
 

Electronic Commerce

Elektronisches Handeln (E-Commerce) gewinnt zunehmend an Bedeutung. Schon jetzt ist ein breites Spektrum an Anwendungen und Techniken in diesem Bereich entstanden. Das Seminar soll mehr Licht in dieses vielfälltige Thema bringen. Besonderes Augenmerk soll auf den Bezug zu Datenbanken und Informationssystemen gelegt werden.
 

Anwendungen neuronaler Netze

Das SE setzt die VL ‘Neuronale Netze’ aus dem WS 98/99 fort.
 

Effiziente Algorithmen

In diesem SE wird ein aktuelles Thema aus dem Bereich Algorithmen und Komplexität an Hand von Originalarbeiten behandelt. Genaueres kann einem Aushang gegen Ende des Wintersemesters entnommen werden.
 

Workflow - Theorie und Anwendung

Die Modellierung sowie die technische Unterstützung betrieblicher Abläufe (Workflows) sind überaus aktuelle Probleme der Softwareentwicklung. Im SE lernen wir verschiedene Beschreibungstechniken für Workflows kennen. Darüberhinaus vergleichen wir die Fähigkeiten derzeit verfügbarer Werkzeuge und diskutieren neue Entwicklungen.
 

Effiziente Algorithmen: Approximation in der Optimierung

In der Wirtschaft, in der Wissenschaft und in anderen Bereichen des täglichen Lebens treten oft Optimierungsprobleme auf, die im Kern kombinatorisch sind. Zur besseren Handhabung behandeln wir Formulierungen der Probleme, die diesen Kern betonen. Manche lassen sich effizient (=schnell) und effektiv (=gut) lösen, aber viele sind sehr wahrscheinlich nicht so gutartig. Deshalb suchen wir Lösungsverfahren, deren Effektivität nicht optimal ist, aber zumindest gemessen werden kann (=Approximationsalgorithmen). Im SE werden die Begriffe des Gebiets vertieft und wir beschäftigen uns mit Techniken, die es ermöglichen, Approximationsalgorithmen zu finden und/oder Nicht-Approximierbarkeit festzustellen. Festgestellte Nicht-Approximierbarkeit dient dazu, Bemühungen um Approximationsalgorithmen zu dirigieren und führt zum Teil auch zu neuen, besseren Approximationsalgorithmen. Die Veranstaltung ermöglicht Studenten des Hauptstudiums den Einstieg in ein derzeit sehr aktives Forschungsgebiet. Kenntnisse aus der Vorlesung "Graphen und Algorithmen" können eingebracht werden.
 

Simulation und Animation

Simulation ist eine sehr leistungsfähige u. durch die Animation auch attraktive Problemlösungsmethode, u. a. in der Logistik. Durch praktischen Umgang mit Simulatoren unterschiedlicher Generationen (GPSS/H, TAYLOR II, SIMPLE++) werden vergleichende Betrachtungen ermöglicht. Erstellung eigener Animationsszenen.
 

Dienstgüte mit Standard-Middleware

Fehlertoleranz, Echtzeitfähigkeit, Sicherheit und Performance sind Dienstgüteeigenschaften, die gerade in verteilten, Web-basierten Umgebungen an Bedeutung gewinnen. Das SE untersucht Ansätze und Standardisierungsbemühungen für Dienstgütegaratien in CORBA- und DCOM-Umgebungen. Vorkenntnisse zu CORBA und auf dem Gebiet des parallelen und verteilten Rechnens sind für das SE von Vorteil.
 

Innovationsforum

Vertreter verschiedener innovativer High-Tech-Unternehmen präsentieren ihre neuesten Designentwürfe, Ideen, Technologien oder Produkte. Die Studenten, die diese VL besuchen, sollen einen Bericht über ein beliebiges Projekt/ Produkt schreiben und erklären, welche Informatikansätze für dieses Projekt/ Produkt wichtig sind und wie dieses Projekt/ Produkt erweitert werden könnte.

 

Projekt: Joint Time Frequency Analysis

Traditionell sind die Eigenschaften von Signalen entweder aus ihrer Abhängigkeit von der Zeit oder von der Frequenz abgeleitet worden, obwohl Signale aus der realen Welt zeitabhängige Spektren besitzen. Wegen erheblicher technologischer Fortschritte erobert sich nun die gleichzeitige Zeit- und Frequenzanalyse (JTFA) viele Anwendungsgebiete. Ziel des Projektes ist es, die theoretischen Grundlagen für die JTFA zu erarbeiten, ausgewählte Algorithmen zu implementieren, die Signalerfassung zu ermöglichen und ein Anwendungsbeispiel zu untersuchen. Dafür ist die Analyse von Mikrogravitationsdaten aus der Weltraumstation MIR vorgesehen.
 

Projekt: Erkennungsaufgabe für Briefsortiermaschinen

In einer Briefsortiermaschine gibt es eine Baugruppe, die die Briefe vereinzelt und nacheinander der Maschine zuführt. Diese Baugruppe ist leider fehlerbehaftet. Gelegentlich werden 2 Briefe gleichzeitig zugeführt. Zur Erkennung dieser Doppelbriefe soll ein Algorithmus erarbeitet werden, der in einem 1. Durchlauf Merkmale aus dem digitalisierten Briefkuvert ermittelt und diese zusammen mit dem Bild abspeichert. Bei einem 2. Durchlauf wird das Kuvert erneut gescannt, werden dieselben Merkmale ermittelt und die Merkmale aus beiden Durchläufen verglichen. Nur bie hinreichender Übereinstimmung handelt es sich um keinen Doppelbrief.
 

Projekt: Signalverarbeitung für autonome Systeme

Autonome mobile Systeme führen Aufträge selbstständig aus. Dazu müssen sie über Modelle ihrer Umgebung verfügen, für deren Aktualisierung Informationen über Sensoren gewonnen werden. Es sind ein optischer Sensor (CCD-Kamera), akustische Sensoren (Mikrofone) und mechanische Sensoren (Beschleunigung, Druck) vorgesehen. Die Sensordaten sind auszuwerten und werden zur Koordination der Bewegung und zur Ausführung bestimmter Aufträge genutzt. Ziel des Projektes ist es, Algorithmen zu entwickeln, unter Einsatzbedingungen zu testen und zu optimieren.
 

Computer in der Informationsgesellschaft: Neue Technologie mit altem Geschlecht? (LV im Rahmen von gender studies)

Computer sind technologisches Zentrum in den ökonomischen, politischen und kulturellen Veränderungen der Gegenwart. Wir wollen uns im SE zunächst einen praktischen und theoretischen Zugang zum Verständnis dieser Technologie erarbeiten. Der Zusammenhang von Geschlecht und Informationstechnologie soll in verschiedenen Dimensionen diskutiert werden: Zugang zur Technologie, Konsequenzen für die Erwerbsarbeit, Veränderungen der Vorstellung von Öffentlichkeit, kulturelle Bedingungen und Wirkungen, Konsequenzen für das Identitätskonzept (“Cyberfeminismus“)
 

Echzeit Robotik

Eingebettete Systeme stellen einen der derzeit größten Wachstumsmärkte der Computerindustrie dar. In dieser Veranstaltung werden solche Systeme am Beispiel des Mindstorm-Roboters behandelt, der Sensoren und Motoren besitzt. Es können autonome Aufgaben, aber auch kooperative Aufgaben durch Kommunikation zwischen zwei Robotern in einem verteilten, eingebetteten System ausgeführt werden. Im Seminar werden Grundlagen der Robotik, von Echtzeitsystemen und eingebetteten Systemen behandelt. Es werden Übungen mit dem Mindstorm sowie weiterführende Aufgaben (Mindstorm-Simulator) angeboten. Wichtig ist dabei das Engagement der Teilnehmer, Spaß an der Arbeit mit dem Mindstorm und viel Phantasie!
 
Diese Veranstaltung wird als Seminar angerechnet, wenn ein Schein erlangt wird. Eine Prüfung finder nicht statt.
 
Voraussetzungen: Unix, C/C++

Diskrete Mathematik

Dies ist ein gemeinsames SE (in engl. Sprache) mit M. Karonski von der Adam Mickiewicz Universität Poznan, Polen. Es werden ausgewählte Themen der algorithmischen diskreten Mathematik behandelt. Das SE findet als Block-SE etwa aller vier Wochen freitags wechselweise in Berlin u. in Poznan statt.

Einführung in den Umweltschutz (sg)

Die VL führt in die Umweltproblematik ein und vermittelt Grundlagen für den ökologisch-technischen Umweltschutz. Schwerpunkte: Moderne Umweltprobleme; Überlick zum Umweltschutz; ökologische u. rechtliche Grundlagen; ökomische u. rechtspolitische Aspekte; Umweltbelastungen u. Schadstoffe; Charakterisierung u. Strukturierung von Umweltdaten; Umweltschutz als Querschnittsdisziplin; Informationstechnik und Informatik im Umweltschutz. Abfallkonzepte.


gültig für das Sommersemester 1999