TOP 5 LITERATURY SPECJALISTYCZNEJ AI

artificial-intelligence-sztuczna-inteligencja

Czytanie między wierszami: Sztuczna inteligencja w literaturze specjalistycznej

Nick Bostrom jest szwedzkim profesorem na University of Oxford i współzałożycielem World Transhumanist Association, a jego książka Superintelligence stanowi spekulacyjne ostrzeżenie. Jeśli ludzie nie myślą o tym, jak inteligentne roboty i komputery mogłyby zostać zaprogramowane z progami moralnymi, ryzykujemy, że zostaną zastąpione przez te maszyny. Jest to uzależnione od obecnego rozwoju sztucznej inteligencji, w wyniku którego komputery mogą rozwijać niezależne działania w przyszłości. Podlega również temu, że ta niezależność jest sprzeczna z ludzkimi interesami.

Jednak Bostrom sugeruje, że spowodowałoby to „wybuch inteligencji”. Dzieje się tak, gdy ludzie nie są już w stanie kontrolować niezależności komputerów. W tej chwili wychodzi to poza sferę science fiction, jak firmy takie jak Google & Co. obecnie podchodzą do opracowania sztucznej inteligencji podobnej do dzieci bawiących się dynamitem. Eksperci są przekonani, że najpóźniej w 2075 r. Zostaną opracowane maszyny, które mogą to zrobić: Zoptymalizuj i dalej się rozwijaj, bez wpływu na ludzi.

Aby zapobiec temu ryzyku, Bostrom opracował kilka hipotez dotyczących tego, jak można to z wyprzedzeniem zwalczać. Uważa, że ​​„pośrednia normatywność” może być jedną z możliwości: komputery rozwijają własną etykę, która nie może naruszać ludzkich potrzeb. Bostrom obserwuje scenariusze sztucznej inteligencji z długoterminowym horyzontem: od krojenia mózgu do teoretycznej super inteligencji. Ekscytująca lektura.

Python to bardzo lubiany język programowania do uczenia maszynowego. Python Machine Learning napisany przez Sebastiana Raschkę (2015) jest wstępem do programowania modeli uczenia maszynowego: Doskonała książka do praktycznego wprowadzenia do tematu uczenia maszynowego w Pythonie.

Początkowym celem autora jest, aby programiści rozpoznali, który z różnych modeli uczenia maszynowego jest najlepszy dla odpowiednich danych. Istnieją instrukcje w tym zakresie pokazujące, w jaki sposób można budować sieci neuronowe z bibliotek Pythona Keras i Theano. Raschka pokazuje także, jak należy pisać czysty kod w celu optymalizacji algorytmów oraz jak zaimplementować zaprogramowany model w aplikacji internetowej.

Modele uczenia maszynowego mogą przewidywać docelowe wyniki dla witryny internetowej za pomocą analiz regresywnych, odkrywać wzorce behawioralne za pomocą analiz klastrowych i skutecznie oceniać dane poprzez wstępne przetwarzanie – wstępny wybór odpowiednich informacji. Można także zastosować analizy sentymentów, aby lepiej przyjrzeć się danym z mediów społecznościowych. W książce wykorzystano wiele bibliotek typu open source, które zostały utworzone w ciągu ostatnich kilku lat i które programiści mogą wykorzystać, aby szybko uzyskać dostęp do uczenia maszynowego.

Deep Learning od Iana Goodfellow, Yoshua Bengio i Aarona Courvillea została opublikowana w 2016 roku i stanowi dla początkujących wstęp do tego tematu. Głębokie uczenie się odnosi się do metod optymalizujących sztuczne sieci neuronowe. Proces ten wykorzystuje kaskadę wielu nowych warstw przetwarzanych informacji, które są przekazywane do następnej odpowiedniej warstwy. Są one coraz bardziej abstrakcyjne, dopóki nie osiągną widocznego wyniku – ostatniej warstwy. W tych procesach nie jest wymagana interwencja człowieka, ponieważ komputer uczy się złożonych pojęć z hierarchicznej interakcji prostych pojęć.

Trzej autorzy podzielili książkę na trzy części: początkowo wprowadzają teorie algebry, prawdopodobieństwa i informacji, a także uczenie maszynowe, a następnie w drugiej części przedstawiają techniki głębokiego uczenia się stosowane w przemyśle. Należą do nich sieci sprzężenia zwrotnego (niecyrkulacyjne), algorytmy optymalizacji, splotowe sieci neuronowe i modelowanie sekwencji. Następnie wyjaśniają praktyczne obszary zastosowania: przetwarzanie języka naturalnego, rozpoznawanie mowy, widzenie komputerowe, systemy rekomendacji online, bioinformatyka i gry.

W ostatniej części autorzy wyjaśniają zaawansowane obszary badań. Siedem rozdziałów pokazuje różne modele teoretyczne, od auto-koderów po symulacje Monte Carlo i model głębokiego generowania. Czytelnicy mogą znaleźć zarówno praktyczne informacje, jak i teoretyczne spostrzeżenia na ten temat.

Sztuczna inteligencja: nowoczesne podejście jest teraz w trzeciej edycji i stanowi kompendium sztucznej inteligencji napisane przez Petera Norviga i Stuarta J. Russella, które każdy ekspert ML / AI powinien wiedzieć. Ta książka ma prawie 1200 stron i oferuje wprowadzenie do teorii i praktycznej pracy we wszystkich obszarach rozwoju komputerów, które mają związek z zachowaniem uczenia się i dla maszyn. Pierwsze wydanie zostało opublikowane w 1995 r., Trzecie w 2009 r.

Siedem sekcji wyjaśnia ten temat. Pierwszy, „Sztuczna inteligencja”, opisuje interfejsy, które mogą podejmować inteligentne decyzje, a zatem oferuje wprowadzenie do tematu. Druga sekcja zatytułowana jest „Rozwiązywanie problemów” i opisuje metody, które pozwalają opracować działania wyprzedzające, na przykład dla komputerów szachowych. Część trzecia dotyczy „Wiedzy, rozumowania i planowania” i przedstawia, w jaki sposób wiedzę można prezentować w środowisku sztucznej inteligencji oraz w jaki sposób można ją logicznie dalej rozwijać. Po nim znajduje się czwarta sekcja, „Niepewna wiedza i rozumowanie”, z kontynuacją: Dotyczy to niepewnych warunków dla metod logicznych. W piątej części omówiono uczenie maszynowe: Jak można generować ustalenia w modułach decyzyjnych? W tej części przedstawiono również sztuczną sieć neuronową. W szóstej części omówiono elementy komunikacyjne: Jak maszyny postrzegają swoje otoczenie w wyniku dotyku lub wzroku? Ostatni rozdział dotyczy przeszłości i przyszłości AI i uzupełnia obserwacje pytaniami etycznymi i filozoficznymi.

Książka Toby’ego Segarana Programowanie kolektywnej inteligencjisięga 2007 roku i zajmuje się tak zwanymi algorytmami eksploracji danych i uczenia maszynowego dla zachowania online i treści generowanych przez użytkowników w języku programowania Python. Zajmuje się oceną większych ilości danych w celu oceny trendów i wzajemnych połączeń. Ta książka zawiera instrukcje dla programistów internetowych, jak uzyskać informacje o danych od użytkowników Internetu. Mogę gorąco polecić każdemu, kto pracuje w ML i AI. Wyszukaj maszyny, rankingi i zakładki społecznościowe, takie jak strona internetowa del.icio.us – jakie informacje można wykorzystać i jak je ocenić? W jaki sposób budowane są filtry, które umożliwiają sprzedawcom internetowym prezentowanie odpowiednich reklam lub propozycji zakupu odwiedzającym ich stronę internetową? W jaki sposób program może ekstrapolować uzyskaną wiedzę? Jak można to zoptymalizować, przefiltrować, czy sklasyfikowany? Segaran oferuje konkretne kody dla tych form uczenia maszynowego.

Segaran w końcu omawia zagadnienie programowania genetycznego w rozdziale 11. Jest to forma uczenia maszynowego oparta na biologicznych teoriach ewolucji. Programy są ustawione na problemy z predefiniowanymi parametrami. Najlepsze algorytmy są wybierane z wynikowej konkurencji i modyfikowane: albo jako mutacja, albo hybryda przy użyciu innego algorytmu, umożliwiając tworzenie nowych, coraz lepszych programów. Aby przetestować programy genetyczne, muszą one raz po raz udowodnić swoją wartość. Na przykład w przypadku gier można je ulepszyć, jeśli początkowo zmierzą się z równym przeciwnikiem i będą stawić czoła prawdziwym osobom w późniejszych powtórkach, gdy będą już mogły dobrze grać.

W swojej książce The Master Al Algorytm, który ukazał się w 2015 roku, Pedro Domingos opisuje swoją wizję pojedynczego algorytmu, który obejmuje wszystkie pozostałe algorytmy uczenia się dla inteligentnych systemów. Obecnie mamy systemy edukacyjne w różnych obszarach – karty kredytowe, działania wyszukiwarek i inne metody, a w przyszłości będzie tylko jedna.

Domingos, profesor na Uniwersytecie Waszyngtońskim, opisuje historię maszyn uczących się i rozwój koncepcji za pomocą różnych kanałów do dnia dzisiejszego. Czyniąc to, używa prostego języka – ta książka jest również skierowana do zainteresowanych nowych osób.

Autor używa metafor geograficznych, aby wyjaśnić, czego jeszcze brakuje w rozwoju tej sztucznej inteligencji. Główny algorytm jest siedzibą główną w mieście symbolistów, koneksjonistów, ewolucjonistów, Bayesianów i analogistów. Symboliści uważają, że mogą uczyć się na manipulowaniu symbolami. Związkowcy chcą odtworzyć umysł. Ewolucjoniści piszą programy darwinistyczne. Myślenie Bayesowskie opiera się na Thomasie Bayesie, że wszystko, czego się nauczyliśmy, jest niepewne, podczas gdy analogi przewidują przy użyciu kodów porównawczych. Domingos wykorzystuje przykłady, aby przedstawić wkład poszczególnych regionów w rozwój techniczny, rozwijając swoją hipotezę o głównym algorytmie.

Życie prywatne jest również krótko wspomniane na końcu książki. Domingos proponuje związki danych, które monitorują dane osobowe. Powinno to stanowić przeciwwagę dla wszechpotężnych rządów lub firm

Wstęp do uczenia maszynowego autorstwa Ethem Alpaydin, profesor informatyki na uniwersytecie Boğaziçi w Stambule, jest wstępem do tego tematu i został opublikowany po raz pierwszy w 2004 roku. Otrzymałem kopię w prezencie, kiedy dołączyłem do projektu eLIZA.

Uczenie maszynowe oznacza programy komputerowe zdolne do wykorzystywania przykładowych danych lub doświadczenia z przeszłości do rozwiązywania problemów. Wiele aplikacji jest już z powodzeniem używanych: na przykład rozpoznawanie twarzy lub mowy lub zoptymalizowane zachowanie robota, które zużywa niewiele zasobów.

To wprowadzenie do uczenia maszynowego, wyraźnie wymienione w tytule, podchodzi do problemu z szerokim spojrzeniem. Omówiono statystyki, rozpoznawanie próbek, sieci neuronowe, sztuczną inteligencję, przetwarzanie sygnałów, kontrolę i eksplorację danych. Wszystkie algorytmy uczenia się są wyjaśnione, aby uczeń mógł łatwo przejść z równań w książce do programu komputerowego.

Alpaydin szczegółowo zajmuje się teorią decyzji Bayesa, metodami parametrycznymi, metodami wielowymiarowymi, redukcją wymiarów, klastrami, metodami nieparametrycznymi, drzewami decyzyjnymi, funkcją dyskryminacyjną, wielowarstwowymi perceptronami i ukrytymi modelami Markowa. Wreszcie, algorytmy sklasyfikowane, uczenie wielokrotne i uczenie wzmacniające nie są zaniedbywane. Atutami tej książki są aspekty statystyczne.

Oryginalna wersja została opublikowana w języku angielskim, a trzecia, rozszerzona wersja została opublikowana w 2015 r., W której omówiono również ostatnie zmiany. Ta książka jest uważana za łatwą do zrozumienia standardową pracę źródłową na całym świecie, a niemieckie tłumaczenie zostało opublikowane w 2008 roku.

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*