You may have to Search all our reviewed books and magazines, click the sign up button below to create a free account.
Söldner, Händler, Piloten und Weltraumganoven in sechzehn spannenden Geschichten. Wie sehen die Fäden aus, die ganze Galaxien miteinander verbinden? Aus welchem Stoff sind die Welten gemacht, über die abends in finsteren Bars gesprochen wird? Manche Erzählungen sind Seemannsgarn, aufregende Lügen und ausgeschmückte Wahrheiten. Andere Geschichten entsprechen der Wahrheit und haben sich auf ihren langen Wegen in Legenden verwandelt. Wir wünschen eine gute Reise durch Galaxien aus Goldfäden, Seidengewebe und all den anderen Garnen, aus denen Seemannsgarn gesponnen wird.
Märchen gibt es, seit es Menschen und Sprache gibt. In ihnen werden Erfahrungen und Wissen vermittelt, in einer Art, die Groß und Klein das Verstehen ermöglicht. Unsere eigenen Ängste, Wünsche und Träume werden in Gestalt von Weisen, Königen und Feen erzählt. Märchen spiegeln die Welt, in der wir leben, auf eine ganz besondere Weise: Übersinnlich, mystisch, spielerisch, kritisch - und immer märchenhaft. Auch in diesem zweiten Band des "Größenwahn Märchenbuches" zeugen Erzählungen von wunder-samen Begebenheiten, von Prinzessinnen, Hexen, Zwergen, sprechenden Tieren und kleinen und großen Menschen, die zu Helden aufsteigen. Bekannte Protagonisten erscheinen auf der Bühne und n...
Embeddings have undoubtedly been one of the most influential research areas in Natural Language Processing (NLP). Encoding information into a low-dimensional vector representation, which is easily integrable in modern machine learning models, has played a central role in the development of NLP. Embedding techniques initially focused on words, but the attention soon started to shift to other forms: from graph structures, such as knowledge bases, to other types of textual content, such as sentences and documents. This book provides a high-level synthesis of the main embedding techniques in NLP, in the broad sense. The book starts by explaining conventional word vector space models and word embeddings (e.g., Word2Vec and GloVe) and then moves to other types of embeddings, such as word sense, sentence and document, and graph embeddings. The book also provides an overview of recent developments in contextualized representations (e.g., ELMo and BERT) and explains their potential in NLP. Throughout the book, the reader can find both essential information for understanding a certain topic from scratch and a broad overview of the most successful techniques developed in the literature.
None