You may have to Search all our reviewed books and magazines, click the sign up button below to create a free account.
Der Autor analysiert Wissens-, Wahrnehmungs- und Handlungsmuster, die uns glauben lassen, dass angesichts neuer Hybrid-Phänomene wie intelligenten Maschinen oder künstlichem Leben die Grenzen zwischen Natur und Technik immer stärker verwischen und ‚das Menschliche‘ infrage gestellt wird. Diese Muster, so die zentrale These, sind Produkte einer historisch spezifischen kulturellen Logik, der Logik des Algorithmus. Sie macht den Menschen durch die Linse des Technischen erklärbar und fungiert so als Modell einer universellen Weltdeutung, als Mythos Algorithmus. Denken, Fühlen und Handeln, Körper, Selbst und Leben werden ausschließlich im Lichte seiner Deutungsmacht sichtbar. Allein bei den leiblichen Empfindungen des sexuellen Begehrens, des Schmerzes oder der Ekstase stellt sich die Frage, ob der Logik des Algorithmus zu entrinnen ist.
Ein zentraler Begriff der Informatik ist der Begriff des Algorithmus. Wir haben bereits in Band I dieses Grundkurses die Programmiersprache Modula-2 kennengelernt, die wir zum Schreiben von Programmen und damit - mehr oder weniger intuitiv - zur formalen Beschreibung von Algorithmen benutzt haben. In diesem Kapitel soll der Begriff des Algorithmus näher beleuchtet werden. Wir werden ihn hier nicht präzise definieren, denn es gibt eine Viel zahl gleichberechtigter, formaler Möglichkeiten, dies zu tun (s. Band IV dieses Grundkurses), aber wir werden uns mit dem Entwurf, den Darstellungsmög lichkeiten und wichtigen Eigenschaften von Algorithmen beschäftigen. Ganz allgemein dienen Algorithm...
Was ist der Bresenham-Linienalgorithmus Der Bresenham-Linienalgorithmus ist ein Linienzeichnungsalgorithmus, der die Punkte eines n-dimensionalen Rasters bestimmt, die ausgewählt werden sollten, um einen Abschluss zu bilden Annäherung an eine gerade Linie zwischen zwei Punkten. Es wird üblicherweise zum Zeichnen von Linienprimitiven in einem Bitmap-Bild verwendet, da es nur ganzzahlige Addition, Subtraktion und Bitverschiebung verwendet, was alles sehr kostengünstige Operationen in historisch gängigen Computerarchitekturen sind. Es handelt sich um einen inkrementellen Fehleralgorithmus und einen der frühesten Algorithmen, die auf dem Gebiet der Computergrafik entwickelt wurden. Zum Zei...
Die Künstliche Intelligenz (KI) ist ambivalent: Sie kann nützliche Maschine sein, aber auch zum problematischen Konkurrenten des selbstbestimmten Menschen werden. Namhafte Kritiker warnen vor den Folgen einer auf dem selbstlernenden Algorithmus beruhenden, d.h. autonomen KI. Diese kann den Menschen in eine Fremdbestimmung führen, wie wir sie schon vor der Aufklärung hatten. Nur kommt jetzt die "selbstverschuldete Unmündigkeit" (Kant) nicht von 'oben', sondern von 'unten', vom nominalistisch geprägten Physikalismus der Neuzeit, dessen neustes Werk die KI ist. Beispiel: Das moderne Smartphone ('schlaues Telefon'), das fast alle auf sich tragen, enthält hochentwickelte KI-Technologie. Diese erkennt Sprachen und übersetzt sie in Echtzeit, macht das Gerät aber auch zur idealen 'Superwanze' für den 'Big Brother'. Überwachungsstaaten und IT-Grosskonzerne wissen das zu nutzen. Und es ist dieselbe Technik, die auch in autonomen Waffensystemen, z.B. Kampfdrohnen, verwendet wird. Die Fremdbestimmung, die hier den selbstbestimmten Menschen in Not bringt, kann sowohl zu psychisch-geistiger als auch zu physischer Unfreiheit führen.
This thesis investigates the role of duality and the use of approximation methods in cooperative optimization and control. Concerning cooperative optimization, a general algorithm for convex optimization in networks with asynchronous communication is presented. Based on the idea of polyhedral approximations, a family of distributed algorithms is developed to solve a variety of distributed decision problems, ranging from semi-definite and robust optimization problems up to distributed model predictive control. Optimization theory, and in particular duality theory, are shown to be central elements also in cooperative control. This thesis establishes an intimate relation between passivity-based cooperative control and network optimization theory. The presented results provide a complete duality theory for passivity-based cooperative control and lead the way to novel analysis tools for complex dynamic phenomena. In this way, this thesis presents theoretical insights and algorithmic approaches for cooperative optimization and control, and emphasizes the role of convexity and duality in this field.
Jürgen-Oliver Pitz leitet eine Methode zur Ansteuerung eines Fahrsimulators her, welche die Bewegungswiedergabe für eine Vielzahl von Fahrsituationen optimiert. Hierzu stellt er einen ganzheitlichen Ansatz vor, der sowohl Informationen aus der Fahrzeugsimulation als auch aus der direkten und vorausliegenden Fahrzeugumgebung analysiert und auswertet. Die Auswertung zur Systemlaufzeit ermöglicht eine universelle und streckenunabhängige Nutzung des Motion-Cueing-Algorithmus. Der Autor ermittelt in einer repräsentativen Simulatorstudie mit über 40 Probanden das Potenzial des Ansatzes gegenüber dem eines Referenzalgorithmus und zeigt die Vorteile für verschiedene Anwendungsgebiete auf.
Biproportionale Divisormethoden verrechnen Wählerstimmen in Sitzzahlen, sodass sowohl in jedem Wahlkreis ein vorgegebenes Sitzkontingent erfüllt wird als auch jeder Partei so viele Sitze zugeteilt werden, wie sich aus den Stimmen im gesamten Wahlgebiet ergeben. Eingesetzt wird diese Methode bei einigen Schweizer Kantons- und Gemeinderatswahlen. Zur Bestimmung einer biproportionalen Sitzzuteilung wird in dieser Arbeit der Algorithmus der alternierenden Skalierung (AS-Algorithmus) - die diskrete Variante des iterativen proportionalen Anpassungsverfahrens (IPF-Verfahren) - formal eingeführt. Dieser bestimmt iterativ skalierte Stimmenmatrizen, die nach Rundung alternierend die Wahlkreiskontingente und die Parteisitzzahlen erfüllen.
Im Anschluss an eine praktische Anwendung des BO-Algorithmus (Biortho gonalisierungs-Algorithmus von C. LANCZOS [4], [5]1) machte mich Herr Prof. E. STIEFEL, ETH, auf das Problem aufmerksam, die höheren Eigenwerte direkt aus den sogenannten Schwarzsehen Konstanten zu bestimmen, das heisst ohne den Umweg über die Orthogonalisierung. Auf diese Anregung hin entwickelte der Verfasser einen Algorithmus, der die gestellte Aufgabe löst. Allerdings gab bereits A. C. AITKEN [1] eine Methode an, welche haupt sächlich zur Auflösung algebraischer Gleichungen gedacht war, aber auch die Bestimmung höherer Eigenwerte aus Schwarzsehen Konstanten gestattet. 2 Ferner stammt von C. LANCZOS ein Algorithmu...
Dieses Buch liefert eine rechtswissenschaftliche Analyse der Chancen und Gefahren algorithmenbasierter Verfahren. Algorithmen, die im Maschinenraum moderner Softwareanwendungen werkeln, sind zu zentralen Steuerungsinstanzen der digitalen Gesellschaft avanciert. Immer nachhaltiger beeinflussen sie unser Leben. Ihre Funktionsweise gleicht aber teilweise einer Blackbox. Die in ihr schlummernden Risiken zu bändigen, fordert die Rechtsordnung heraus. Das Buch beleuchtet die gesellschaftlichen Gefahren einer zunehmenden gesellschaftlichen Steuerung durch Algorithmen und entwickelt erste Regulierungsideen, mit deren Hilfe sich die Wertschöpfungspotenziale automatisierter digitaler Prozesse mit den Grundwerten der Rechtsordnung versöhnen lassen.