Cognitive Computing – zespół umiejętności traktowanych jako najpoważniejszy przejaw AI

Norbert Biedrzycki
9 min

Czy spowszedniały dla nas wszystkich komputer może nas jeszcze czymś zaskoczyć? Taką szansę może stworzyć Cognitive Computing – zespół umiejętności traktowanych często, jako najpoważniejszy przejaw sztucznej inteligencji.

Wszystkie funkcjonujące definicje Cognitive Computing zawierają w sobie kilka wspólnych, powtarzających się elementów. Najogólniej rzecz ujmując, termin ten oznacza zespół technologii, które w dużej mierze są efektem studiów nad działaniem ludzkiego mózgu. Jest to swoiste połączenie Sztucznej Inteligencji i Przetwarzania Sygnałów – dwóch elementów kluczowych dla rozwoju świadomości maszyn technologii. Łączą one w sobie zestaw nowoczesnych narzędzi: samo-uczenie się maszyn, rozumowanie i wnioskowanie, przetwarzanie języka naturalnego, mowę, interakcje komputer-człowiek i wiele innych. Wszystkie są aspektami współpracy między maszynami i człowiekiem. Krótko mówiąc, termin Cognitive Computing odnosi się do technologii, które naśladują sposób przetwarzania informacji w ludzkim mózgu oraz zwiększają jakość procesu podejmowania decyzji przez człowieka.

Cognitive Computing stanowi niejako komputerową symulację procesów myślowych człowieka. Konstrukcja taka generuje szereg nowych możliwości dla urządzeń, które ją wykorzystują oraz samego użytkownika. Maszyny zbudowane w oparciu o ideę Cognitive Computing są już w stanie aktywnie rozumieć języki naturalne i reagować na zdobywane w ten sposób informacje, potrafią też rozpoznawać obiekty, łącznie z ludzkimi twarzami. Stają się w ten sposób produktem ludzkiego umysłu, który nie ma sobie równych na przestrzeni całej historii.

Analizując Cognitive Computing mówimy w istocie o zespole cech i właściwości, które powodują, że maszyna staje się coraz bardziej inteligentna, a tym samym coraz bardziej nam przyjazna. Cognitive Computing można traktować jako nową technologiczną jakość, bowiem między człowiekiem i obsługiwaną przez niego maszyną, rodzi się nowe, subtelne połączenie. Jeszcze nie emocjonalne i duchowe, ale będące czymś więcej, niż tylko relacją podmiot – przedmiot.

To właśnie dzięki tej jakości, komputerowi asystenci, tacy jak chociażby Siri, będą stopniowo nabierać ludzkich cech. Dążenie do rozwoju tych cech może wynikać z faktu, że dla ludzi zaangażowanych w tworzenie technik komputerowych największym wyzwaniem jest doprowadzenie do tego, by maszyna jak najdokładniej rozumiała użytkownika. Nie tylko jego pytania, ale i intencje. By potrafiła „odczytywać” znaczące, dodatkowe sygnały, które są jej wysyłane przez użytkownika w trakcie pracy nad danym zagadnieniem. Jeszcze inaczej: by uwzględniała pojęciowy i społeczny kontekst jego działań. Przykład? Na proste pytanie o godzinę, skierowane do komputerowego asystenta, być może otrzymam wkrótce konkretną odpowiedź, ale wzbogaconą o dodatkowe, pełne empatii sformułowanie: „13.30. Może czas na przerwę i przekąskę? Norbert, jak sądzisz?”

- Advertisement -

Tu chciałbym na chwilę się zatrzymać i odesłać czytelnika do mojego poprzedniego tekstu o Machine Learning. Pisałem w nim, że technologia ta pozwala komputerom uczyć się, a tym samym przeprowadzać analizy danych z coraz większą skutecznością, która ma związek z całym dotychczasowym „doświadczeniem” maszyny zdobywanym w trakcie wykonywania wcześniej podobnych operacji. Przykładowo: wielokrotnie już wspominany przeze mnie komputer IBM Watson rozumie pytania zadawane mu w języku naturalnym. Chcąc na nie odpowiedzieć, przeszukuje potężne zbiory danych o różnym charakterze – dotyczą one zagadnień biznesowych, matematycznych czy medycznych. Wraz z kolejnymi zadaniami (pytaniami), doskonali on swoje umiejętności. Im więcej danych zaabsorbuje, im więcej zadań dostaje do rozwiązania, tym bardziej jego umiejętności analityczno-poznawcze rosną.

Machine Learning jest już zaawansowaną, ale ciągle podstawową zdolnością maszyny, która pozwala nam mówić o pewnych podobieństwach do ludzkiego mózgu. Jest to swoiste samodoskonalenie przez doświadczenie. Jednak dopiero Cognitive Computing jest tą technologiczną możliwością, która gwarantuje użytkownikowi głębszą satysfakcję z obcowania z – praktycznie – inteligentnym urządzeniem. Dostarcza ono już nie tylko uporządkowanych informacji, nie tylko tworzy samodzielnie algorytmy, ale sugeruje użytkownikowi, jaką drogę do rozwiązania danego problemu obrać. Lekarz korzystający z komputera IBM Watson, może więc liczyć na to, że komputer nie tylko przeanalizuje miliardy informacji i wyciągnie wnioski, ale równię zasugeruje lekarzowi sposób rozwiązania nurtującego go problemu.

Posłużę się tu dodatkowo przykładem znanym z naszego codziennego doświadczenia. Nawigacja samochodowa opiera się na analizie tysięcy danych topograficznych, dzięki czemu wygenerowana zostaje mapa, którą możemy zobaczyć na ekranie oraz trasa przejazdu z zadanego punktu A do punktu B, uwzględniająca nasze nawyki w podróży i poprzednie trasy (Machine Learning). Natomiast fakt, że nasz pokładowy komputer sugeruje nam określoną drogę, w celu uniknięcia korków, ciągle uwzględniając nasze nawyki, to już jest prawie działanie z obszaru Cognitive Computing.

No dobrze, ale jak współczesna technologia doszła do idei, by komputer zaczął zajmować się czymś więcej, niż tylko szybkim liczeniem? Jeffrey Welser, dyrektor Almaden Research Center w IBM, czyli koncernie, który od blisko 50 lat pracuje nad zagadnieniem maszynowej inteligencji, udzielił na to pytanie prostej odpowiedzi:

„Ludzki umysł czasem nie radzi sobie dobrze z liczbami, natomiast sprawdza się doskonale w innych dziedzinach, na przykład w zabawie, strategiach, w rozumieniu języka naturalnego, rozpoznawaniu twarzy. No więc chcieliśmy, aby komputery też sprawdzały się i na tych polach”.

Starania, aby wykorzystać algorytmy i Machine Learning do stworzenia maszyny, która będzie umiała pomagać człowiekowi w podejmowaniu decyzji, doprowadziły do spektakularnego efektu. Koncern IBM, konstruując Watsona, wyznaczył dla świata technologicznego zupełnie nowe standardy.

Studiowanie ludzkiego mózgu, które doprowadziło do rozwoju technologii informatycznych, przyniesie z pewnością dalsze konsekwencje dla różnych obszarów naszego życia: biznesu, bezpieczeństwa, marketingu, nauki, medycyny, przemysłu. Rozumiejące języki i rozpoznające obiekty, „patrzące” komputery mogą pomagać wszystkim: od szeregowego nauczyciela prowadzącego lekcję począwszy, na naukowcu szukającym lekarstwa na raka skończywszy. W biznesie, omawiana technologia, powinna stać się z czasem użytecznym narzędziem, które umożliwi efektywne wykorzystanie zasobów ludzkich, lepsze nabywanie nowych kompetencji i w efekcie poluzuje sztywne korporacyjne reguły oparte na tradycyjnych modelach zarządzania. Jeśli chodzi o medycynę, sporo już napisano o nadziejach, jakie wiążą lekarze z pojawieniem się na scenie doskonałego narzędzia analitycznego, jakim jest IBM Watson. Stosowany do opieki lekarskiej pozwoli na precyzyjne śledzenie historii choroby, wspomoże diagnostykę, umożliwi błyskawiczne dotarcie do informacji, które dla lekarza trudne do zdobycia w oczekiwanym czasie. Może doprowadzić do jakościowej zmiany w diagnozowaniu i leczeniu chorób, które dzisiaj wydają się nieuleczalne.

Komputer ten cieszy się szczególnym zainteresowaniem w środowiskach związanych z onkologią, bowiem w zmaganiu się z rakiem pozwala na błyskawiczne przeszukiwanie gigantycznych baz danych dotyczących tego zagadnienia i dostarczanie lekarzom istotnych podpowiedzi.

W połączeniu z komputerami kwantowymi będzie stanowił bardzo silne narzędzie do rozwiązywania skomplikowanych problemów technologicznych. Marketingowcy już dzisiaj doceniają pracę systemów opartych na Congitive Computing, które zaczynają odgrywać poważną rolę w procesach automatyzacji, w kontakcie z klientem, z dobieraniem dla niego zindywidualizowanej oferty. Każdy obszar ludzkiej aktywności, w którym istotną rolę odgrywa przetwarzanie danych, strategiczne planowanie i modelowanie będzie prędzej czy później beneficjentem przełomu technologicznego, o którym piszę.

Niektórzy twierdzą wręcz, że dzięki Cognitive Computing wkraczamy w trzecią erę informatyki. Na początku ubiegłego wieku mówiło się o komputerach, że są maszynami liczącymi. Potem, począwszy od lat 50. stały się już urządzeniami działającymi w oparciu ogromne bazy danych. W XXI wieku zmieniły się w urządzenia widzące, słyszące i myślące. A że myślenie ludzkie jest procesem złożonym i prowadzi czasem do działań nieprzewidywalnych, może już teraz  należy założyć, że poznawczej (ang. Cognitive) bliskości człowieka i maszyny będą towarzyszyć wydarzenia trudne jeszcze do przewidzenia.

Maszyny przyszłości muszą zmienić sposób w jaki ludzie zdobywają czy pogłębiają swoją wiedzę, a w konsekwencji mogą doprowadzić do „poznawczego” przyśpieszenia. Ale i bez względu na przyszłość, teraźniejszość, w której obecne są coraz sprawniej myślące komputery, staje się coraz ciekawsza.

Blog: https://norbertbiedrzycki.pl
Powiązane artykuły:
Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych
Machine Learning. Komputery nie są już niemowlętami
Niewidzialna pajęczyna wokół nas, czyli Internet Rzeczy
Według naszych komputerów … Pan nie istnieje
Mózg, urządzenie które wypada z obiegu
Udostępnij
Leave a comment

Dodaj komentarz

- REKLAMA -