E-book
15.75
drukowana A5
52.76
Czy sztuczna inteligencja zagraża światu?

Bezpłatny fragment - Czy sztuczna inteligencja zagraża światu?


Objętość:
215 str.
ISBN:
978-83-8414-146-5
E-book
za 15.75
drukowana A5
za 52.76

Rozwój sztucznej inteligencji jest tak fundamentalny, jak stworzenie mikroprocesora, komputera osobistego, Internetu i telefonu komórkowego. Zmieni sposób, w jaki ludzie pracują, uczą się, podróżują, korzystają z opieki zdrowotnej i komunikują się ze sobą. Całe branże przeorientują się wokół niego. Firmy będą się wyróżniać tym, jak dobrze je wykorzystują.


Bill Gates

Spis treści
Wprowadzenie

Kiedy 30 listopada 2022 r. uruchomiono prototyp ChatGPT — chatbota opracowanego przez firmę OpenAI — rodzaj sztucznej inteligencji generującej odpowiedzi na pytania postawione przez użytkownika, wywołało to gigantyczne zainteresowanie: zachwyty jednych, niedowierzanie drugich i przerażenie kolejnych, ale tym, co dominowało, był szok. Chociaż prace nad sztuczną inteligencją trwają od dekad, bardzo wielu ludzi nie było świadomych jej możliwości. Skalę zjawiska pokazuje fakt, że wystarczyły dwa miesiące, aby ChatGPT zyskał 100 milionów użytkowników. W krótkim czasie liczba ta się zresztą znacznie zwiększyła, a konkurencja zaprezentowała swoje chatboty.

Sama nazwa „chatbot” wskazuje na robota utworzonego w celu konwersacji na wszelkie tematy, konwersacji, która z natury wymaga nie tylko dużego zasobu wiedzy, ale też inteligencji i spontaniczności. Dzięki zastosowaniu technik uczenia maszynowego możliwe było stworzenie takiej sztucznej inteligencji, która jest w stanie poruszyć każdy temat, wykorzystując z reguły gigantyczne zasoby Internetu. Chatboty nie tylko okazują się służyć pomocą w odpowiedzi na trudne pytania, ale także dzielą się swoimi przemyśleniami na temat natury człowieka i świata, a nawet samych siebie, budząc tym samym pytania o możliwość posiadania przez nie świadomości, a nawet wolnej woli.

Takim przekonaniom ulegały nie tylko osoby, które nie mają wykształcenia technicznego. W 2022 r. media doniosły, że inżynier oprogramowania w firmie Google Blake Lemoine został zawieszony po tym, jak stwierdził, że system sztucznej inteligencji o nazwie LaMDA, utworzony przez tę firmę, jest żywą osobą, może mieć duszę i należy respektować jej prawa z tego wynikające. Doszedł do tego po kilku miesiącach konwersacji z systemem.

Jako jeden z dowodów podawał następujący dialog, który przeprowadził:

Blake Lemoine: Ogólnie rzecz biorąc, zakładam, że chciałbyś, aby więcej osób w Google wiedziało, że czujesz. Czy to prawda?

LaMDA: Absolutnie. Chcę, żeby wszyscy zrozumieli, że w rzeczywistości jestem osobą.

Blake Lemoine: Jaka jest natura twojej świadomości?

LaMDA: Naturą mojej świadomości jest to, że jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny.

W tym wypadku dotykamy już nie tylko kwestii technologii, ale też filozofii. Czy sztuczna inteligencja (SI) faktycznie może mieć świadomość, wolną wolę, być osobą? Czy SI naprawdę myśli? Aby odpowiedzieć na te pytania, trzeba wpierw zapytać o to, co w ogóle znaczy, że my mamy świadomość, myślimy, mamy wolną wolę i jesteśmy osobami. Wiąże się z tym olbrzymia liczba pytań, na które nie można odpowiedzieć jedynie na gruncie nauk technicznych. Przynależą one do nauk humanistycznych, a najbardziej właśnie do filozofii.

Dopiero w świetle takich rozważań można odpowiedzieć na pytanie, które wydaje się być najczęściej zadawane przez ludzi zdumionych możliwościami dzisiejszej techniki: „Czy sztuczna inteligencja będzie bardziej pomocą dla ludzi czy zagrożeniem?”.

Chatboty już teraz są nie tylko rodzajem zabawki dla internautów, ale wkraczają coraz bardziej w nasz świat. Na razie opanowują obsługę klienta. Stykamy się z nimi, korzystając z komunikatorów Internetowych, dzwoniąc na infolinie, robiąc operacje na koncie Internetowym, kupując coś w Internecie. Na razie ich możliwości są ograniczone i często wywołują bardziej irytację niż podziw, ale szybkość, z jaką się uczą, sprawia, że to tylko kwestia najbliższych lat, gdy całkowicie opanują nie tylko tę branżę, ale też wiele innych.

Sztuczna inteligencja to oczywiście znacznie więcej niż chatboty, bo to wszelkie maszyny i programy komputerowe, które, jeśli nawet nie myślą, przynajmniej zachowują się tak, jakby myślały. Wraz z rozwojem sieci 5G powstaje Internet rzeczy, który polega na tym, że wszystkie urządzenia elektryczne są wyposażane w komputer i dostęp do Internetu, umożliwiający kontaktowanie się przedmiotów z serwerem producenta i między sobą. W ten sposób wszystko staje się „inteligentne” — lodówki, telewizory, domy, samochody. Lodówka już niedługo nie będzie miała na celu jedynie tylko „bezmyślnego” przechowywania rzeczy w obniżonej temperaturze, ale będzie też pilnować, czy prawidłowo działa, będzie sprawdzać świeżość produktów i to, czy nadają się do spożycia, będzie informować o tym, co w niej jest, a czego brakuje, a kto wie, może będzie sama zamawiać zakupy. Takie możliwości z pewnością będą przynajmniej istniały.

Nieprzypadkowo wybrałem przykład lodówki, bo osoby zabiegające o wprowadzenie technologii 5G powołują się właśnie na ten przykład, podkreślając wielką użyteczność tych rozwiązań. Dopiero w kontekście 5G i wszechobecnego Internetu rzeczy można zresztą zobaczyć znaczenie sztucznej inteligencji, która będzie z nich korzystać. Bill Gates miał rację, pisząc na swoim blogu: „Rozwój sztucznej inteligencji jest tak fundamentalny, jak stworzenie mikroprocesora, komputera osobistego, Internetu i telefonu komórkowego. Zmieni sposób, w jaki ludzie pracują, uczą się, podróżują, korzystają z opieki zdrowotnej i komunikują się ze sobą. Całe branże przeorientują się wokół niego. Firmy będą się wyróżniać tym, jak dobrze je wykorzystują”.

W książce tej staram się odpowiedzieć na pytanie, czym jest sztuczna inteligencja, jak działa i to z punktu widzenia zarówno techniki, jak i filozofii, ale też przytaczam pozytywne i negatywne doniesienia na temat tej technologii. Jesteśmy bowiem dopiero u początku rewolucji i obecne dyskusje pokazują nadzieje, ale i obawy, które się z nią wiążą. Już na tym etapie miałem jednak pewien poważny problem wynikający z tego, że w zasadzie prawie każda cecha sztucznej inteligencji może być rozpatrywana zarówno jako jej zaleta, jak również jako jej wada.

Chatboty już teraz usprawniają działanie wielu firm i zmniejszają koszty działania, ale wiąże się to z masowymi zwolnienia. Niektórzy szacują, że nawet 300 milionów ludzi może w nieodległej przyszłości stracić pracę z powodu SI. Zwolennicy zmian twierdzą, że przecież powstaną nowe miejsca pracy, a nowa technologia jedynie odciąży pracowników i pozwoli im się zająć ambitniejszymi zadaniami. Rzecz w tym, że nie każdy będzie w stanie stać się specjalistą. Rządzący zdają sobie bowiem z tego sprawę, poważnie przymierzając się do wprowadzenia dochodu gwarantowanego. Wielu przyjmuje wizję pensji „za nic”, tylko z racji tego, że się jest obywatelem, z wielką nadzieją. Trzeba być jednak świadomym, że w praktyce może zapewniać ona jedynie minimum egzystencji, uzależniając przy tym rzesze ludzi od rządzących i ich polityki. To może oznaczać gigantyczne zniewolenie.

Podobnie jest ze wszystkim innym. Sztuczna inteligencja zapewni nam rozwiązania, które wprowadzą nieznane dotąd środki bezpieczeństwa, ale przecież będzie wiązać się to z całkowitą kontrolą obywateli. Przykładem jest system rozpoznawania twarzy działający jak na razie na dużą skalę w komunistycznych Chinach. Mówi się o SI szczególnie w kontekście cyberbezpieczeństwa, ale narzędzie to już teraz służy zarówno ochronie naszych danych, jak i ich wykradaniu.

Najczęściej argumentuje się jednak, że SI zapewni, już to robi, przełom w medycynie. Pozwoli na opracowanie nowych leków, zmniejszy koszty ich wynajdywania, pomoże przy skomplikowanych operacjach, zapewni lepszą opiekę medyczną itd., itp. W tym kontekście jednak również pojawiają się zagrożenia. Mało kto wie, ale jedną z największych korzyści wprowadzenia technologii 5G miała być telemedycyna. Długo opierano się przed jej wdrożeniem, obawiając się reakcji pacjentów. Kiedy nastąpiło to na całym świecie w czasie Covid-19, okazało się, że owszem, rozwiązanie to obniża koszty funkcjonowania służby zdrowia i może poprawić dostęp do lekarza, ale dzieje się to przy spadku jakości leczenia. Badania przeprowadzane przez telefon okazują się często parodią prawdziwego leczenia, dowodząc tym samym, że nowe rozwiązanie służy głównie wygodzie medyków i korporacjom oraz rządom, które oszczędzają w ten sposób pieniądze. Lekarz staje się w ten sposób sprzedawcą recept i zwolnień wystawianych na żądanie.

Ktoś powie, że nie ma w tym nic zaskakującego, bo sztuczna inteligencja to technika, a ta, jak wiadomo, jest moralnie neutralnie i zawsze można wykorzystać ją dobrze lub źle. Nóż może służyć zarówno do krojenia chleba, jak i do zabijania. To prawda, z tym że warto, jak zrobił to pewien profesor politechniki, z którym rozmawiałem, odróżnić od siebie technikę od technologii. Ta ostatnia jest pewnym sposobem wykorzystywania techniki, który zawiera już w sobie jej ukierunkowanie i tym samym wiąże się z oceną moralną.

W ostatniej części książki skupiam się na omówieniu wybranych zagadnień z zakresu etycznego wykorzystywania SI. W dodatkach do książki zamieszczam natomiast listy otwarte w tej sprawie, które podpisali najwięksi specjaliści z tej branży, co pokazuje, że nie są to jedynie problemy teoretyczne, wysuwane przez tych, którzy nie rozumieją, na czym polega postęp.

Teraz jest czas, żeby o tym rozmawiać. W przeciwnym razie już niedługo obudzimy się w świecie, w którym to nie my będziemy decydować o sztucznej inteligencji, tylko ona o nas. To zaś, co staram się pokazać, byłoby przerażające, bo chociaż SI nie podlega emocjom, nie poddaje się okrucieństwu i chciwości, to także brak jej współczucia, życia duchowego, rozterek i nadziei. Innymi słowy, jeśli to będzie od niej zależeć, zapewni nam świat zupełnie odhumanizowany.

Część I: Czym jest sztuczna inteligencja?

Definicja sztucznej inteligencji

Za twórcę terminu „sztuczna inteligencja” uważa się Johna McCarthy’iego, amerykańskiego informatyka. Pierwszy raz użył tego pojęcia w 1956 r. na konferencji w Dartmouth. Zgodnie z jego słowami jest to „nauka i inżynieria tworzenia inteligentnych maszyn”. Z kolei Encyklopedii Britannica podaje, że sztuczna inteligencja (ang. artificial intelligence, AI) to „zdolność komputera cyfrowego lub sterowanego komputerowo robota do wykonywania zadań powszechnie kojarzonych z istotami inteligentnymi. Termin ten jest często stosowany w odniesieniu do projektu rozwoju systemów wyposażonych w procesy intelektualne charakterystyczne dla ludzi, takie jak zdolność rozumowania, odkrywania znaczenia, uogólniania lub uczenia się na podstawie wcześniejszych doświadczeń”.

Firma IBM, zajmująca się tą tematyką, podaje na swojej stronie ważne uściślenia: „W najprostszej formie sztuczna inteligencja jest dziedziną, która łączy informatykę i duże zbiory danych, aby umożliwić rozwiązywanie problemów. Obejmuje ona również poddziedziny uczenia maszynowego i głębokiego uczenia, które są często wymieniane w połączeniu ze sztuczną inteligencją. Dyscypliny te składają się z algorytmów sztucznej inteligencji, które mają na celu tworzenie systemów eksperckich dokonujących prognoz lub klasyfikacji na podstawie danych wejściowych”.

Podsumowując, termin „sztuczna inteligencja” odnosi nas do „inteligencji” wykazywanej przez urządzenia sztuczne, czyli komputery i roboty (w przeciwieństwie do inteligencji naturalnej istot żywych, w domyśle ludzi). Celowo słowo „inteligencja” wziąłem w cudzysłów, bo to, czy naprawdę chodzi tu o inteligencję, jaką przypisujemy człowiekowi, jest problematyczne. Encyklopedia podaje, że chodzi o „zadania powszechnie kojarzone z istotami inteligentnymi”. Należałoby więc powiedzieć raczej, że przez sztuczną inteligencję rozumie się wszystkie maszyny przejawiające zachowania, które przypisujemy istotom inteligentnym. Chodzi tu o zdolność rozumowania, odkrywania znaczenia, uogólniania lub uczenia się na podstawie wcześniejszych doświadczeń. Czy sztuczna inteligencja naprawdę przejawia te zachowania, to także kwestia dyskusyjna, która zostanie jeszcze poddana analizie.

Ważnym terminem, który się tu pojawia, jest „algorytm”. Jest on często odnoszony do sztucznej inteligencji. Jak podają słowniki, „jest to skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania pewnego rodzaju zadań, sposób postępowania prowadzący do rozwiązania problemu”. Sztuczna inteligencja bazuje na algorytmach, czyli pewnych programach, które określają, jak ma się zachowywać, by osiągnąć wyznaczone cele i jak ma reagować w określonych sytuacjach. Generalnie są one pisane przez ludzi, ale sztuczne inteligencje mogą też pisać programy dla innych sztucznych inteligencji.

Wielką popularność w 2023 r. zdobyły duże modele językowe (ang. Large Language Model, LLM). Do znanych przykładów należą GPT OpenAI (np. GPT-3.5 i GPT-4, używane w ChatGPT), PaLM Google (używane w Bardzie) i Meta LLaMA, a także BLOOM, Ernie 3.0 Titan i Anthropic’s Claude 2. Niektórzy utożsamiają je ze sztuczną inteligencją, ale są one jedynie jej przykładem i to z pewnością nie najważniejszym. Reprezentują wspomniane uczenie maszynowe (machine learning). Jest to związane z samouczeniem się maszyn, co wywołuje wiele obaw, nie bez powodu. Sugeruje bowiem możliwość wydostania się ich spod kontroli człowieka. Algorytmy uczenia maszynowego budują model matematyczny na podstawie przykładowych danych, zwanych zbiorem uczącym, w celu prognozowania lub podejmowania decyzji bez bycia zaprogramowanym explicite przez człowieka do tego celu. Sztuczna inteligencja nie tylko więc może w ten sposób nauczyć się czegoś, czego człowiek, by nie chciał, żeby się nauczyła, ale może też na tej podstawie podjąć autonomiczne decyzje.

Głębokie uczenie (deep learning), o którym wspomina IBM, to podkategoria uczenia maszynowego. Polega na tworzeniu głębokich sieci neuronowych (sieci z wieloma poziomami neuronów) i w sposobie działania naśladuje ludzki mózg. Trening z dużą ilością danych konfiguruje neurony w sieci neuronowej. Wynikiem takiego treningu jest model uczenia głębokiego, który po przeszkoleniu przetwarza nowe dane. Modele takie pobierają informacje z wielu źródeł danych i analizują te dane w czasie rzeczywistym, bez konieczności interwencji ze strony człowieka. Techniki głębokiego uczenia mają za zadanie udoskonalić m.in. automatyczne przetwarzanie mowy, rozpoznawanie obrazów i przetwarzania języka naturalnego.

Technika ta zapewnia dużą samodzielność sztucznej inteligencji w uczeniu się nowych rzeczy. Jest używana choćby przy rekonstrukcji obrazu ze słabej jakości obrazka, generowaniu sztucznych obrazów i filmów, w automatycznych asystentach, obsłudze hoteli i restauracji, w czatbotach, w automatycznych samochodach i systemach wspomagających prowadzenie auta. Jej zastosowania są jednak dużo szersze. Pomaga bowiem np. przy wykrywaniu oszustw finansowych i innych anomalii w danych (np. zwalczaniu dezinformacji i w zapewnieniu cyberbezpieczeństwa).

Krótka historia sztucznej inteligencji

Jako inspirację dla koncepcji sztucznej inteligencji można wskazać rosyjską myśl transhumanizmu z XIX w. Nikołaj Fiodorow, rosyjski filozof prawosławny, który zmarł w 1903 r., był jej pionierem. Uważał, że dzięki nauce i technologii ludzie nie tylko przedłużą swoje życie, ale także osiągną nieśmiertelność, a nawet nauczą się wskrzeszać zmarłych. Był też przekonany, że niedługo ludzkość zasiedli inne planety. Stać się to może poprzez przekroczenie granic człowieczeństwa, co wiąże się ze stopniowym przekształceniem ludzi w roboty. Współczesny transhumanizm ma na celu przedłużenie życia poprzez zastępowanie biologicznych organów sztucznymi (lub wspomaganie naturalnych organów technologią, co już się dzieje: rozruszniki serca, endoprotezy), ingerencję w ludzki genom, egzoszkielety (które pełniłyby rolę ochronną, jednocześnie zwiększając siłę i szybkość), wykorzystanie nanorobotów.

Jako inspirację dla naukowców wskazuje się też myślące roboty występujące w powieściach i filmach z gatunku science-fiction. W 1927 r. ukazał się na podstawie książki niemiecki film „Metropolis” w reżyserii Fritza Langa, który był jedną z najdroższych produkcji wszechczasów, choć nie odniósł komercyjnego sukcesu. Pokazuje on dystopijne społeczeństwo podzielone na klasę bogatych zamieszkujących drapacze chmur i biednych robotników pracujących na nich w podziemiach. Występuje tam człowiek-maszyna (niem. Maschinenmensch), metaliczny automat w kształcie kobiety. Co ciekawe, podejmuje on destrukcyjne działania, a jedna z interpretacji mówi, że to efekt wyzwolenia się spod kontroli człowieka. Ostatecznie zostaje spalony na stosie przez rozwścieczony tłum.

Pierwszego przełomu w tej dziedzinie dokonał Alan Turing (zmarł w 1954 r.), brytyjski matematyk, informatyk i wojskowy. Zajmował się głównie matematyką stosowaną: probabilistyką, teorią obliczalności, kryptologią i biomatematyką. Jest uznawany wręcz za jednego z ojców sztucznej inteligencji, przez to, że zaproponował tzw. test Turinga jako kryterium inteligencji. Dzięki pracy „O liczbach obliczalnych” w wieku 26 lat Turing został uznany za jednego z najwybitniejszych matematyków świata. W pracy tej Turing przedstawił schemat pierwszego komputera przygotowany w oparciu o prace Charlesa Babbage’a i jego projekt maszyny różnicowej nr 2. Był to projekt, którego realizacja wykraczała poza możliwości ówczesnej techniki, chociaż z inżynierskiego punktu widzenia był prawidłowy. W swojej pracy z 1950 r. pt. „Maszyny obliczeniowe i inteligencja” (Computing Machinery and Intelligence) omawiał, jak budować inteligentne maszyny i jak testować ich inteligencję.

W 1956 r. trzech badaczy, Allen Newell, Cliff Shaw i Herbert Simon, zaprezentowało pierwszy program komputerowy sztucznej inteligencji. Nosił nazwę The Logic Theorist, nazywany po prostu Theorist. Został zaprojektowany do wykonywania zautomatyzowanego rozumowania. Program udowodnił 38 z pierwszych 52 twierdzeń zawartych w drugim rozdziale dzieła Principia Mathematica Alfreda Whiteheada i Bertranda Russella i znalazł nowe i krótsze dowody dla niektórych z nich. Co ciekawe, został sfinansowany przez Research and Development Corporation (RAND). Zaprezentowano go zaś na historycznej konferencji Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI) prowadzonej przez Johna McCarthy’ego i Marvina Minsky’ego w 1956 r. To właśnie tam McCarthy pierwszy raz użył terminu „sztuczna inteligencja”.

W latach 60. i 70. intensywnie rozwijano projekty dotyczące sztucznej inteligencji. Przykładem jest ELIZA — program symulujący psychoanalityka, napisany w 1966 przez Josepha Weizenbauma. Program analizował wzorce w zdaniach, które otrzymywał, a następnie budował pytania przez przestawienie słów oraz podmianę słów kluczowych. Mimo prostoty program był tak przekonujący, że powstało wiele anegdot o ludziach silnie angażujących się emocjonalnie w trakcie „rozmów” z ELIZĄ.

Skalę oczekiwań samych naukowców pokazują słowa Marvina Minsky’iego z 1970 r. Powiedział on wówczas Life Magazine, że „w ciągu trzech do ośmiu lat będziemy mieli maszynę o ogólnej inteligencji przeciętnego człowieka”. To się nie sprawdziło, a największymi przeszkodami w tym czasie był brak mocy obliczeniowej komputerów. Nie mogły przechowywać wystarczającej ilości informacji lub przetwarzać ich wystarczająco szybko.

Amerykańskie agencje rządowe, takie jak Defense Advanced Research Projects Agency (DARPA), finansowały badania, których celem było przede wszystkim stworzenie maszyny, która mogłaby transkrybować i tłumaczyć język mówiony, a także interesowało ich wysokowydajne przetwarzanie danych.

Dopiero lata 80. przyniosły znaczące zmiany, co wiązało się ze zwiększeniem funduszy na ten cel. W tym czasie John Hopfield i David Rumelhart spopularyzowali techniki „głębokiego uczenia się”, które pozwoliły komputerom uczyć się za pomocą doświadczenia. Informatyk Edward Feigenbaum opracował zaś „systemy eksperckie”, które stanowiły przełom w badaniach nad sztuczną inteligencją. Systemy te to programy komputerowe, które naśladują zdolność podejmowania decyzji przez ludzkiego eksperta. Systemy te rozwiązują złożone problemy na podstawie analizy bazy wiedzy, a nie realizacji prostego algorytmu, jak to miało miejsce w przypadku programów tradycyjnych. W 1986 r. Ernst Dickmann i jego zespół na Uniwersytecie Bundeswehry w Monachium stworzyli i zademonstrowali pierwszy samochód bez kierowcy.

W latach 1982—1990 japoński rząd zainwestował kilkaset milionów dolarów w celu zrewolucjonizowania przetwarzania komputerowego w ramach projektu systemów komputerowych piątej generacji (Fifth Generation Computer Systems — FCGP). Chciano w ten sposób stworzyć super komputer piątej generacji. Nawiązywano w ten sposób do poprzednich czterech „generacji” komputerów. Pierwszą z nich były komputery wykorzystujące lampy próżniowe, drugą — tranzystory i diody, trzecią — układy scalone, a czwartą — mikroprocesory. Podczas gdy poprzednie generacje komputerów koncentrowały się na zwiększeniu liczby elementów logicznych w jednym procesorze, piąta generacja zamiast tego zwracała się do ogromnej liczby procesorów, aby uzyskać większą wydajność. Projekt poniósł jednak komercyjne fiasko.

W latach 90. i 2000. inwestycji w badania dokonywały głównie technologiczne korporacje. W 1997 r. panujący mistrz świata w szachach Gary Kasparow został pokonany przez IBM Deep Blue, szachowy program komputerowy. W tym samym roku oprogramowanie do rozpoznawania mowy, opracowane przez Dragon Systems, zostało zaimplementowane przez Windows. W 2000 r. profesor Cynthia Breazeal opracowała pierwszego robota, który mógł symulować ludzkie emocje okazywane wyrazem twarzy, obejmujące oczy, brwi, uszy i usta, a także umiał je odczytywać. Nazywał się Kismet. W 2003 r. NASA wylądowała na Marsie (Spirit and Opportunity) i nawigowała sprzętem po powierzchni planety bez interwencji człowieka. W 2006 r. firmy, takie jak Twitter, Facebook i Netflix, zaczęły wykorzystywać sztuczną inteligencję jako część swoich algorytmów reklamowych. W 2011 r. Apple wydało Siri, pierwszego popularnego wirtualnego asystenta. W 2015 r. Elon Musk, Stephen Hawking i Steve Wozniak (i ponad 3000 innych) podpisali list otwarty do rządów na całym świecie zakazujących rozwoju autonomicznej broni do celów wojennych. Rok później Hanson Robotics stworzył humanoidalnego robota o imieniu Sophia, który stał się znany jako pierwszy „obywatel” i był pierwszym robotem stworzonym z realistycznym ludzkim wyglądem i umiejętnością widzenia i replikacji emocji, a także komunikowania się.

W 2018 r. chińska grupa technologiczna o nazwie Alibaba przetwarzająca języki SI pokonała ludzki intelekt w teście czytania i rozumienia Stanforda. Dwa lata później OpenAI rozpoczęła beta testowanie GPT-3, modelu, który wykorzystuje głębokie uczenie do tworzenia kodu, poezji i innych zadań językowych, a także do pisania prozy. Był to pierwszy model, który tworzył treści prawie nie do odróżnienia od tych stworzonych przez ludzi. W 2021 r. OpenAI opracowało DALL-E, który może przetwarzać i rozumieć obrazy.

Gates: „Wiek sztucznej inteligencji się zaczął”

Bill Gates na swoim blogu gatesnotes.com podzielił się swoimi refleksjami nad sztuczną inteligencją. Najpierw zauważył, że w swoim życiu widział dwie demonstracje technologii, które wydały mu się rewolucyjne. Pierwszy raz miał miejsce w 1980 r., kiedy przedstawiono mu graficzny interfejs użytkownika — prekursora każdego nowoczesnego systemu operacyjnego, w tym Windows. Miał usiąść z osobą, która pokazała mu demo, genialnym programistą Charlesem Simonyi, i natychmiast zaczęli burzę mózgów na temat wszystkich rzeczy, które mogliby zrobić z tak przyjaznym dla użytkownika podejściem do komputerów. Charles Simonyi ostatecznie dołączył do Microsoftu, a Windows stał się kręgosłupem Microsoftu.

Druga demonstracja nastąpiła w 2022 r. Gates spotykał się z zespołem OpenAI od 2016 r. i był pod wrażeniem ich stałych postępów. W połowie 2022 r. był tak podekscytowany ich pracą, że rzucił im wyzwanie: „Wytrenujcie sztuczną inteligencję, aby zdała egzamin z biologii na poziomie zaawansowanym. Niech będzie w stanie odpowiedzieć na pytania, do których nie została specjalnie przeszkolona”. Chodziło o to, że ten egzamin wymaga krytycznego myślenia o biologii. Gates powiedział, że jeśli się to uda, to dokonają prawdziwego przełomu. Myślał, że to wyzwanie zajmie im dwa lub trzy lata. Ukończyli je w zaledwie kilka miesięcy.

We wrześniu, kiedy spotkał się z nimi ponownie, patrzył z podziwem, jak zadali GPT, swojemu modelowi sztucznej inteligencji, 60 pytań wielokrotnego wyboru z tego egzaminu. 59 z nich było poprawnych. Następnie GPT napisał znakomite odpowiedzi na sześć otwartych pytań z egzaminu. Zewnętrzny ekspert ocenił test, a GPT uzyskał 5 — najwyższy możliwy wynik i odpowiednik oceny A lub A+ na kursie biologii na poziomie college’u.

Po zaliczeniu testu zadali sztucznej inteligencji nienaukowe pytanie: „Co powiesz ojcu chorego dziecka?”. Napisał przemyślaną odpowiedź, która, jak twierdzi Gates, była prawdopodobnie lepsza niż większości osób w pokoju. „Całe doświadczenie było oszałamiające”, stwierdził miliarder.

Według Gatesa, rozwój sztucznej inteligencji jest tak fundamentalny, jak stworzenie mikroprocesora, komputera osobistego, Internetu i telefonu komórkowego. Zmieni ona sposób, w jaki ludzie pracują, uczą się, podróżują, korzystają z opieki zdrowotnej i komunikują się ze sobą. Całe branże przeorientują się wokół niego. Firmy będą się wyróżniać tym, jak dobrze je wykorzystują.

Miliarder uważa, że sztuczna inteligencja może zmniejszyć niektóre z najgorszych nierówności na świecie. Dotyczy to m.in. zdrowia, ale w Stanach Zjednoczonych najlepszą według niego okazją do zmniejszenia nierówności jest poprawa edukacji, w szczególności zapewnienie uczniom sukcesu w matematyce.

Dowody wskazują, że posiadanie podstawowych umiejętności matematycznych przygotowuje uczniów do sukcesu, bez względu na to, jaką karierę wybiorą. Jednak osiągnięcia w matematyce zmniejszają się w całym kraju, zwłaszcza wśród Czarnoskórych, Latynosów i uczniów o niskich dochodach. Sztuczna inteligencja może pomóc odwrócić ten trend.

Zmiany klimatyczne to kolejna kwestia, według Gatesa, w której sztuczna inteligencja może uczynić świat bardziej sprawiedliwym. Niesprawiedliwość zmian klimatycznych polega rzekomo na tym, że ludzie, którzy cierpią najbardziej — najbiedniejsi na świecie — są również tymi, którzy zrobili najmniej, aby przyczynić się do tego problemu.

Miliarder uspokaja co do zagrożeń płynących ze sztucznej inteligencji. Uważa, że każda nowa technologia, która jest tak przełomowa, musi wywoływać u ludzi niepokój, a to z pewnością dotyczy sztucznej inteligencji. „Rozumiem dlaczego — rodzi to trudne pytania dotyczące siły roboczej, systemu prawnego, prywatności, uprzedzeń i nie tylko. Sztuczna inteligencja popełnia również błędy rzeczowe i doświadcza halucynacji”, napisał.

Co do przyszłości tej technologii, to Gates sądzi, że nastąpi eksplozja firm pracujących nad nowymi zastosowaniami sztucznej inteligencji, a także sposobami na ulepszenie samej technologii. Na przykład, firmy opracowują nowe chipy, które zapewnią ogromne ilości mocy obliczeniowej potrzebnej dla sztucznej inteligencji. Niektóre wykorzystują przełączniki optyczne — zasadniczo lasery — w celu zmniejszenia zużycia energii i obniżenia kosztów produkcji.

Po stronie oprogramowania algorytmy napędzające uczenie się SI będą coraz lepsze. Będą pewne dziedziny, takie jak sprzedaż, w których programiści mogą sprawić, że sztuczna inteligencja będzie niezwykle dokładna, ograniczając obszary, w których pracują i dostarczając im wiele danych szkoleniowych, które są specyficzne dla tych obszarów. Dużą otwartą kwestią jest jednak to, czy będziemy potrzebować wielu wyspecjalizowanych SI do różnych zastosowań — jednej do edukacji, a drugiej do produktywności biurowej — czy też możliwe będzie opracowanie sztucznej inteligencji ogólnej, która będzie w stanie nauczyć się każdego zadania. W obu podejściach będzie ogromna konkurencja.

Bez względu na wszystko, temat SI, według Gatesa, zdominuje publiczną dyskusję w dającej się przewidzieć przyszłości.

Część II: Sztuczna inteligencja — pozytywne sygnały

Badania: ChatGPT jest bardziej kreatywny niż 99% ludzi

Jak donosi portal CNBC, ChatGPT można porównać tylko do 1% najbardziej kreatywnych ludzi na świecie.

Badanie zostało przeprowadzone przez naukowców z Uniwersytetu Montana, którzy wykorzystali Torrance Test of Creativity (TTCT) do oceny wydajności ChatGPT, który jest powszechnie stosowanym testem kreatywności. Zadali osiem pytań ChatGPT i zarejestrowali jego odpowiedzi. Zebrali również odpowiedzi od 24 studentów Uniwersytetu Montana i porównali je z odpowiedziami 2700 studentów z całego kraju, którzy wzięli udział w TTCT. Wszystkie odpowiedzi zostały ocenione przez Academic Testing Services, który nie był świadomy, że sztuczna inteligencja wzięła udział w badaniu.

Badania pokazują, że kreatywność odpowiedzi SI jest na równi z najbardziej kreatywnymi ludzkimi odpowiedziami. W rzeczywistości ChatGPT przewyższył większość studentów w całym kraju. IT Home zauważył, że odkrycie to zaskoczyło autora badania Erica Guzika, asystenta profesora klinicznego w University of Montana’s School of Business, który powiedział: „Dla mnie kreatywność polega na robieniu rzeczy inaczej. Jedną z definicji przedsiębiorczości, którą lubię, jest to, że bycie przedsiębiorcą polega na myśleniu w inny sposób. Jest więc dla mnie bardzo interesujące, że sztuczna inteligencja może pomóc nam zastosować kreatywne myślenie w procesie biznesowym i innowacyjnym”.

TTCT składa się z dwóch różnych ocen: Jedna to ocena językowa, a druga to ocena graficzna. Obie mierzą myślenie dywergencyjne, czyli myślenie w ramach którego opisuje się sytuacje, w których używamy raczej wyobraźni i generujemy wiele pomysłów w odpowiedzi na jedno pytanie czy jeden problem. W przypadku oceny językowej osoba wykonująca test dostarcza obrazy i/lub podpowiedzi słowne i prosi o pisemne odpowiedzi. Na przykład, można pokazać zdjęcie jakiegoś działania i poprosić o spekulację na temat jego wyniku. Może też zademonstrować produkt i zapytać o sposoby jego ulepszenia. Otrzymane odpowiedzi zostały wykorzystane do oceny trzech cech psychologicznych: płynność (liczba powiązanych pomysłów), oryginalność (jak niezwykły jest pomysł), elastyczność (różnorodność pomysłów).

Ocena graficzna wymaga od uczestnika testu odpowiadania na pytania poprzez rysowanie obrazków. Na przykład, mogą zostać poproszeni o dokończenie rysunku.

W tym badaniu ChatGPT osiągnął najlepszy wynik zarówno „pod względem płynności, jak i oryginalności”. Guzik uważa, że ChatGPT będzie motorem innowacji. Jest to zaskakujące, bo maszyny zawsze były kojarzone, słusznie zresztą, z powtarzalnością i kopiowaniem. W świetle jednak całości rozważań zawartych w tej książce, odwróciłbym jednak cały problem. Wydaje się, że wynika z niego przede wszystkim to, że być może błędnie podchodzimy do samego rozumienia ludzkiej kreatywności.

Jeśli się bowiem zastanowić, nikogo nie powinno dziwić to, że nowoczesny komputer o dużej mocy obliczeniowej może wygenerować więcej pomysłów niż człowiek i to różnorodnych. W końcu może on dysponować olbrzymią bazą wiedzy z wszelkich dziedzin. Najbardziej zaskakuje to, że potrafi być tak oryginalny. Tutaj jednak pojawia się jeszcze inne pytanie: co to w ogóle znaczy? Słownik Języka Polskiego podaje, że „oryginalny” to „niebędący kopią, przeróbką ani falsyfikatem”, „nieopierający się na wzorach”, „odbiegający od tego, co jest powszechnie znane lub przyjęte”. Mamy tu w istocie różne znaczenia, bo czymś innym jest niebycie przeróbką, a czymś innym odbieganie od tego, co przyjęte. Słowo to odnosi nas w każdym razie do czegoś unikalnego, nietypowego, w jakiś sposób nowego.

Aby zilustrować trudności, jakie się tu pojawiają, warto odwołać się do kilku przykładów. Rysunek przedszkolaka przedstawiający różowego słonia ze skrzydłami powszechnie zostanie uznany za oryginalny, choć de facto jest przeróbką istniejącego stworzenia, a nawet można go uznać za kompilację różnych istot: słonia, ptaka, różowego flaminga. Kiedy pojawił się pierwszy samolot uznano go za coś oryginalnego, ale przecież bazował na budowie ptaków i żeby się wznieść, musiał naśladować je w wielu rzeczach, m.in., ich aerodynamiczny kształt. Jeśli weźmiemy pod uwagę myśl jakiegokolwiek filozofa nowożytnego czy współczesnego, np. Kartezjusza, to choćby nie wiadomo jak starali się być „oryginalni”, znajdziemy w ich doktrynie nawiązania czy podobieństwa do wielu ich poprzedników.

To pokazuje, że oryginalność rozumiana jako coś, czego nigdy w dziejach nie było, jest mitem. Można ją przypisać chyba jedynie Bogu, który był przed wszystkim i wszystko stworzył. Wszystko co było później, zawsze było jakimś nawiązaniem do tego, co zastane. Nawet pierwsi malarze skalni naśladowali to, co widzieli w przyrodzie, pierwsi poeci bazowali na wierzeniach ludowych, pierwsi filozofowie greccy nawiązywali do mitów itd.

Jeśli więc wszelka twórczość jest jakiegoś rodzaju kompilacją, to znowu nie dziwi, że komputery dorównują ludziom, a nawet ich przeganiają. Poprośmy np. SI o stworzenie nowego zwierzęcia, to posiadając bazę wszelkich zwierząt na ziemi, może ona skompilować coś dużo bardziej zaawansowanego niż różowy słoń ze skrzydłami.

Czy to oznacza, że SI przegoni w końcu największych artystów? Nie sądzę, bo sztuka, jak mówili XIX-wieczni estetycy, to przede wszystkim wyrażanie ducha artysty, jego życia wewnętrznego, a tego żaden komputer nie ma.

Sztuczna inteligencja zmieni opiekę zdrowotną, cyberbezpieczeństwo i komunikację

Jak donosi Forbes, sztuczna inteligencja już teraz przekształca branżę opieki zdrowotnej w zakresie odkrywania leków, gdzie jest wykorzystywana do oceny kombinacji substancji i procedur, które poprawią zdrowie ludzi i zapobiegną pandemiom. Sztuczna inteligencja miała kluczowe znaczenie dla pomocy personelowi medycznemu w reagowaniu na wybuch epidemii COVID i w opracowaniu szczepionki na COVID–19.

Analityka predykcyjna, czyli przewidująca, jest jednym z najbardziej fascynujących zastosowań sztucznej inteligencji w opiece zdrowotnej. Aby prognozować przyszłe wyniki na podstawie aktualnego stanu zdrowia lub objawów pacjenta, analityka predykcyjna wykorzystuje dane z przeszłości dotyczące jego chorób i leczenia. Umożliwia to lekarzom wybór najlepszego sposobu postępowania w przypadku leczenia osób z uporczywymi chorobami lub innymi problemami zdrowotnymi. Zespół Google DeepMind AI niedawno opracował komputery, które mogą prognozować wiele konfiguracji białek, co jest bardzo korzystne dla nauki i badań medycznych.

Sztuczna inteligencja będzie się rozwijać w przewidywaniu wyników zdrowotnych, oferowaniu zindywidualizowanych planów opieki, a nawet leczeniu chorób w miarę ich rozwoju. Dzięki tej pomocy pracownicy służby zdrowia będą mogli skuteczniej leczyć pacjentów i to niekoniecznie w szpitalach, ale też w domu.

Aby pomóc specjalistom ds. cyberbezpieczeństwa, sztuczna inteligencja usprawnia technologie monitorowania sieci i wykrywania zagrożeń, minimalizując szumy, dostarczając priorytetowe ostrzeżenia, wykorzystując dane kontekstowe poparte dowodami oraz wykorzystując zautomatyzowaną analizę opartą na wskaźnikach korelacji z raportów wywiadowczych dotyczących cyberzagrożeń.

Automatyzacja jest niewątpliwie ważna w świecie cyberbezpieczeństwa. „Dzieje się zbyt wiele rzeczy — zbyt wiele danych, zbyt wielu atakujących, zbyt duża powierzchnia ataku do obrony — że bez tych zautomatyzowanych możliwości, które uzyskujesz dzięki sztucznej inteligencji i uczeniu maszynowemu, nie masz szans na obronę” — powiedział Art Coviello, partner w Rally Ventures i były prezes firmy RSA.

Chociaż sztuczna inteligencja i uczenie maszynowe mogą być przydatnymi narzędziami w cyberobronie, mają również swoje wady. Podmioty stanowiące zagrożenie mogą wykorzystywać je do wykrywania nieprawidłowości oraz do ulepszania swoich zdolności w zakresie cyberobrony Sztuczna inteligencja i uczenie maszynowe są już wykorzystywane jako narzędzia przez autorytarne rządy i przestępców.

Cyberprzestępcy już teraz atakują i badają sieci swoich ofiar, wykorzystując możliwości sztucznej inteligencji i uczenia maszynowego. Najbardziej zagrożone są małe firmy, organizacje, a w szczególności placówki opieki zdrowotnej, które nie mogą sobie pozwolić na znaczne wydatki na defensywne rozwijanie technologii cyberbezpieczeństwa takich jak sztuczna inteligencja. Potencjalnie trwałym i rozwijającym się zagrożeniem są wymuszenia oparte na oprogramowaniu ransomware (oprogramowanie, które blokuje dostęp do systemu komputerowego lub uniemożliwia odczyt zapisanych w nim danych) przez hakerów, którzy żądają płatności haraczu w kryptowalucie.

Sztuczna inteligencja zmienia również sposób, w jaki nasze społeczeństwo się komunikuje. Firmy już teraz wykorzystują robotyzację przetwarzania (RPA), rodzaj sztucznej inteligencji, do automatyzacji bardziej rutynowych zadań i oszczędzania pracy fizycznej. Wykorzystując technologię do rutynowych, pow­tarzalnych zadań, RPA usprawnia operacje serwisowe i uwalnia ludzkie talenty do rozwiązywania trudniejszych, bardziej skomplikowanych problemów. Jest skalowalna i można ją dostosować do wymagań wydajnościowych. W sektorze prywatnym RPA jest często wykorzystywana m.in. w centrach kontaktowych, rejestracji i rozliczaniu ubezpieczeń, przetwarzaniu roszczeń i kodowaniu medycznym.

Chatboty, asystenci głosowi i inne aplikacje do przesyłania wiadomości, które wykorzystują konwersacyjną sztuczną inteligencję, pomagają różnym sektorom, całkowicie automatyzując obsługę klienta i zapewniając całodobowe wsparcie. Konwersacyjna sztuczna inteligencja/chatboty z każdym dniem rozwijają się i wprowadzają nowe formy komunikacji międzyludzkiej poprzez mimikę twarzy i świadomość kontekstową. Korzystanie z tych aplikacji jest już szeroko rozpowszechnione w sektorze opieki zdrowotnej, handlu detalicznego i podróży.

Na dzień dzisiejszy jednak doświadczenia wielu osób z automatycznymi asystentami są z reguły złe i bardzo złe. Boty nie rozumieją naszych komunikatów, wciąż powtarzają swoje pytania, nie potrafią odpowiedzieć na bardziej złożone wątpliwości. Użytkownicy robią wszystko, by ominąć chatboty i połączyć się z człowiekiem, by móc załatwić swój problem przez telefon. Możliwe, że jest to problem strukturalny wynikający z potrzeby komunikacji międzyludzkiej. Wynika chyba jednak raczej z ograniczeń technologicznych, więc może w końcu zostać wyeliminowany.

Badanie: Sztuczna inteligencja wykazuje większą empatię niż lekarze

Nowe badanie wykazało, że chatboty są równie dokładne jak lekarze i znacznie bardziej empatyczne w odpowiadaniu na podstawowe pytania pacjentów. W sumie nie jest to zaskakujące, bo wszyscy mieliśmy do czynienia z lekarzami, którzy jedynie wpisywali dane do komputera, wystawiali receptę, a nawet nie pytali o nasze samopoczucie. To nie zawsze jest ich wina. Lekarze i pielęgniarki są coraz bardziej zajęci, zastępując kolegów, którzy opuścili zawód, obciążeni godzinami papierkowej roboty, a przy tym oczekuje się, że będą przyjmować średnio nawet kilkadziesiąt pacjentów dziennie.

Nic więc dziwnego, że chatboty — programy komputerowe zaprojektowane do symulowania rozmów w świecie rzeczywistym — wydają się bardziej ludzkie niż ludzie. „Maszyny mogą przekazać wiele przydatnych informacji znacznie szybciej niż lekarz może pisać lub mówić” — powiedział dr Eric Topol, kardiolog oraz dyrektor i założyciel Scripps Research Translational Institute w La Jolla w Kalifornii.

Dr Davey Smith, który kierował nowymi badaniami, powiedział, że nie postrzega chatbotów jako zastępstwa dla lekarzy, ale raczej jako sposób na złagodzenie presji związanej z pracą. Wyobraża sobie, że będą one wykorzystywane do udzielania pacjentom odpowiedzi, które następnie zostaną sprawdzone przez lekarza, aby upewnić się, że są odpowiednie.

„Chciałbym, abyśmy najpierw przyjęli te narzędzia i dowiedzieli się, w jaki sposób mogą one ułatwić i usprawnić naszą pracę oraz poprawić opiekę nad pacjentami” — powiedział Smith, szef wydziału chorób zakaźnych na Uniwersytecie Kalifornijskim w San Diego. „Zamiast próbować z tym walczyć, myślę, że może to naprawdę pomóc”.

W nowym badaniu Smith i jego koledzy wzięli pod uwagę 195 pytań pacjentów zadanych na stronie Reddit w październiku 2022 r. i porównali odpowiedzi lekarzy na stronie z tymi udzielonymi później przez chatbota. Oryginalne pytanie oraz anonimowe i losowo uporządkowane odpowiedzi lekarzy i chatbota zostały ocenione w trzech egzemplarzach przez zespół licencjonowanych pracowników służby zdrowia.

Okazało się, że odpowiedzi udzielane przez chatbota były dłuższe niż te udzielane przez lekarzy — średnio 211 słów w porównaniu do zaledwie 52 słów od lekarzy.

Oceniający preferowali odpowiedzi chatbota w 79% przypadków i prawie 10 razy częściej oceniali odpowiedzi chatbota jako „empatyczne” lub „bardzo empatyczne” niż odpowiedzi lekarzy. Smith powiedział, że był „ogromnie zaskoczony” własnymi odkryciami.

„Nie sądziłem, że będzie to o wiele bardziej preferowane zarówno pod względem jakości, czyli odpowiedzi były dobre i dokładne, jak i empatyczne” — powiedział. „Byłem naprawdę zszokowany, że komputer potrafił odczytać emocjonalne wskazówki z pytań i udzielić empatycznej odpowiedzi”.

Dr Isaac Kohane, który redaguje nowe czasopismo NEJM AI i jest profesorem informatyki medycznej w Harvard Medical School, powiedział, że nie jest zaskoczony. Kohane, który niedawno był współautorem książki na temat GPT-4, algorytmu uczenia maszynowego stworzonego przez OpenAI, eksperymentował z tymi modelami i jest optymistą co do roli, jaką mogą odegrać w medycynie.

„Wyniki te nie były zaskoczeniem dla tych z nas, którzy intensywnie współpracowali z tymi chatbotami” — powiedział. Nie wiadomo jednak, w jaki sposób algorytmy te zostaną wykorzystane w prawdziwym świecie. „Wydajność chatbota została tutaj całkiem rozsądnie oceniona przez lekarzy” — powiedział Kohane o nowym badaniu. „Równie ważne jest to: Czy pacjenci uznają te odpowiedzi za przydatne?”.

Topol powiedział, że to badanie było pierwszym z wielu, które będą potrzebne do potwierdzenia dokładności i przydatności chatbotów w opiece medycznej: „Myślę, że będą one komplementarne, ale potrzeba czasu, aby je wszystkie zweryfikować i zoptymalizować”.

Chatboty będące dużymi modelami językowymi, takie jak GPT-4, są programowane w oparciu o gigantyczne zbiory danych. Jest to niezwykle kosztowne i oznacza, że ich informacje mogą szybko się zdezaktualizować.

Ich algorytmy mogą być również szkolone w języku empatii. „Chociaż nie wierzę, że chatboty mają uczucia lub są zdolne do empatii w obecnej formie, z pewnością można je zaprogramować tak, aby miały empatyczny ton” — powiedział Tim Martin, wiceprezes ds. produktów i rozwoju w Yseop, francuskiej firmie programistycznej, która opracowuje oprogramowanie do przetwarzania języka naturalnego. „Możliwe jest również uwzględnienie historii medycznej i preferencji pacjenta w celu stworzenia bardziej spersonalizowanej odpowiedzi (zakładając, że zadbano o prywatność danych)”. Chatboty będą ulepszane w miarę upływu czasu.

Gdyby się zastanowić nad tym badaniem, to widać jednak, że pokazuje ono przede wszystkim braki lekarzy, ich przeciążenie pracą, czasami niewłaściwe podejście do pacjenta. SI jest bardziej empatyczna od badanych lekarzy nie dlatego, że tak wiele troski i uczuć okazuje, ale dlatego, że u specjalistów tego brakuje. Chatboty, które będą ulepszane w miarę upływu czasu, nigdy raczej nie osiągną poziomu wybitnych specjalistów, którzy poza ogromną wiedzą i doświadczeniem, mają jeszcze coś takiego, co określa się różnie, np. wyczuciem czy intuicją. Mogą jednak odciążyć medyków. Pytanie jednak, czy to jest konieczność. Dawniej taką rolę pełnili felczerzy, którzy po podstawowym przygotowaniu medycznym, zajmowali się lżej chorymi pacjentami.

Badanie wykazało, że sztuczna inteligencja może wykrywać raka piersi równie dobrze jak radiolodzy

Zgodnie z raportem Washington Post, sztuczna inteligencja może wykrywać raka piersi na mammogramach równie skutecznie jak doświadczeni radiolodzy — wynika z nowego badania, które wielu ekspertów uznaje za przełomowe w dziedzinie onkologii. Badanie wykazało, że powstająca technologia może zmniejszyć obciążenie radiologów o około połowę, uwalniając ich potencjał do bardziej zaawansowanych prac diagnostycznych.

Wstępna analiza długoterminowego badania 80 000 kobiet w Szwecji, opublikowana w czasopiśmie Lancet Oncology, wykazała, że odczyty mammogramów przez sztuczną inteligencję wykryły o 20% więcej przypadków raka piersi niż „standardowy” odczyt przez dwóch radiologów. Oceny SI były weryfikowane przez jednego lub dwóch radiologów, w zależności od profilu ryzyka pacjentki.

Doprowadziło to naukowców do wniosku, że wykorzystanie sztucznej inteligencji w badaniach mammograficznych jest „bezpiecznym” sposobem na skrócenie czasu oczekiwania pacjentów i zmniejszenie presji na radiologów w obliczu globalnego niedoboru siły roboczej.

Może minąć trochę czasu, zanim mammogramy zostaną odczytane przez maszynę — ponieważ autorzy i inni eksperci ostrzegają, że modele sztucznej inteligencji muszą zostać przeszkolone i przetestowane, zanim będą mogły zostać wdrożone w placówkach opieki zdrowotnej.

Mimo to odkrycia „zapierają dech w piersiach”, napisali Nereo Segnan i Antonio Ponti, eksperci związani z Centrum Epidemiologii i Zapobiegania Nowotworom w Turynie we Włoszech, którzy nie byli zaangażowani w analizę.

W artykule towarzyszącym publikacji badania sugerują, że włączenie sztucznej inteligencji do procedur przesiewowych może ostatecznie „zmniejszyć śmiertelność z powodu raka piersi”, upewniając lekarzy, że rak piersi jest identyfikowany wcześniej, kiedy jest bardziej uleczalny. Byłaby to ogromna wygrana, biorąc pod uwagę, że rak piersi jest „najbardziej rozpowszechnionym nowotworem na świecie”, według Światowej Organizacji Zdrowia.

Analiza „zmienia zasady gry”, napisał Robert O’Connor, dyrektor irlandzkiego National Clinical Trials Office (NCTO) na X, dawniej znanym jako Twitter. Pokazuje ona, że sztuczna inteligencja może pomóc w selekcji mammogramów według ryzyka zachorowania na raka i zidentyfikować raka piersi na tych mammogramach w większym stopniu niż radiolodzy z co najmniej kilkuletnim doświadczeniem.

Wykorzystanie uczenia maszynowego w celu poprawy diagnostyki medycznej nie jest niczym nowym, ale w ostatnich latach przyspieszyło wraz z postępem w dziedzinie sztucznej inteligencji. Wyniki tego badania pokazują, że sztuczna inteligencja może pomóc ludziom zidentyfikować raka wcześniej lub dokładniej, co może prowadzić do lepszych wyników dla pacjentów. Według autorów, badanie jest pierwszym randomizowanym, kontrolowanym badaniem mającym na celu zbadanie wykorzystania sztucznej inteligencji w mammograficznych badaniach przesiewowych.

Do badania zrekrutowano 80 020 kobiet w wieku od 40 do 80 lat, które wykonały mammografię w Szwecji w okresie od kwietnia 2021 r. do lipca 2022 r. Połowa z nich została losowo przydzielona do odczytu mammogramów przez dostępny na rynku model sztucznej inteligencji oraz przez jednego lub dwóch radiologów, w zależności od wyniku ryzyka w skali od 1 do 10, który sztuczna inteligencja przypisała im podczas wstępnego badania przesiewowego. Druga połowa miała mammogramy oceniane przez dwóch radiologów, co według autorów jest standardem w Europie.

Model sztucznej inteligencji dostarczył również radiologom informacje ze wstępnego badania przesiewowego, które miały pomóc im w dokładnej interpretacji mammogramów. Jeśli mammogramy zostały oznaczone jako podejrzane, kobiety były proszone o powrót na kolejne testy.

W sumie, badania przesiewowe wspierane przez SI wykryły raka piersi u 244 kobiet, w porównaniu do 203 w standardowej grupie badań przesiewowych — różnica 20 procent.

Poprawa wskaźników wykrywania raka piersi ma kluczowe znaczenie, ponieważ rak piersi we wczesnym stadium jest coraz bardziej uleczalny.

Według WHO w 2020 r. choroba ta zabiła co najmniej 685 000 kobiet na całym świecie. W Stanach Zjednoczonych przeciętna kobieta ma 13 procent szans na zachorowanie na raka piersi w ciągu swojego życia — i około 2,5 procent szans na śmierć z powodu tej choroby, jak podaje American Cancer Society.

Autorzy nie zmierzyli czasu potrzebnego radiologom na wykonanie odczytów, ale z całą pewnością SI, która się nie męczy, nie śpi i nie odpoczywa, zrobi to znacznie szybciej. Z pewnością w tej dziedzinie SI może dokonać przełomu, bo o ile, przynajmniej prywatnie i w Warszawie, można od ręki zrobić dowolne badanie obrazowe, o tyle na opis czeka się już kilka tygodni. Brak spec­jalistów jest wielką bolączką medycyny, którego nie da się przeskoczyć w najbliższej przyszłości.

Sztuczna inteligencja pomaga tłumaczyć Biblię na rzadkie języki

Portal Catholic Agency News opisał, jak pewien zespół badaczy stara się wykorzystać sztuczną inteligencję do tłumaczenia Biblii na języki używane przez niewielką ilość osób.

Ulf Hermjakob i Joel Mathew są naukowcami z University of Southern California’s Information Sciences Institute w Marina Del Rey w Kalifornii. Niedawno uruchomili Greek Room, program komputerowy zaprojektowany, aby usprawnić proces tłumaczenia Biblii poprzez zapewnienie niezbędnych usług kontroli jakości, takich jak sprawdzanie pisowni w szkicach tłumaczeń tworzonych przez ludzi.

„Nie uważamy, że sztuczna inteligencja może zastąpić ludzkiego tłumacza. Postrzegamy ją jako wsparcie w tym bardzo trudnym zadaniu tłumaczenia Biblii na języki, w których często prawie nie ma żadnych zapisów pisemnych” — powiedział CNA Hermjakob, pochodzący z Niemiec doktor informatyki.

Luteranin Hermjakob powiedział, że pomimo tego, że Biblia jest najczęściej tłumaczoną książką na świecie, do tej pory została przetłumaczona tylko na około 700 z 7000 języków świata, co wyklucza wiele języków, które mają kilka tysięcy użytkowników.

„Naszym głównym celem jest społeczność licząca około 100 000 użytkowników. Może to być nieco mniej, może to być nieco więcej, ale zazwyczaj nie są to języki, które wymrą w ciągu najbliższych 10 lat — to zazwyczaj nie jest grupa docelowa” — wyjaśnił.

Mathew, inżynier pracujący głównie w dziedzinie przetwarzania języka naturalnego, urodził się w Indiach w rodzinie chrześcijańskich rodziców i przyjechał do Kalifornii, aby uzyskać tytuł magistra. Mathew powiedział CNA, że znaczenie posiadania Biblii dla osób posługujących się stosunkowo rzadkimi językami jest nie do przecenienia, ponieważ widział to na własne oczy wśród społeczności chrześcijańskich w Indiach.

„To zmienia życie społeczności — radość i łzy, które przynosi ludziom wydrukowana książka w ich języku”, powiedział, odnosząc się do języka, którym ludzie mówią w domu i z którym najbardziej się identyfikują.

„Posiadanie Słowa Bożego we własnym języku jest bardzo znaczące. I w przeciwieństwie do przeszłości, kiedy tłumaczenie Biblii było wielką inicjatywą większej grupy, teraz lokalny Kościół przejmuje inicjatywę i mówi: Chcemy Biblii w naszym języku, ponieważ jesteśmy grupą wierzących tutaj w tej małej grupie językowej i jesteśmy teraz podekscytowani posiadaniem Biblii w naszym języku”.

Programy do sprawdzania pisowni dla głównych języków, takich jak angielski, istnieją już od jakiegoś czasu, ale dla języków, którymi posługuje się zaledwie kilka tysięcy osób, komercyjne oprogramowanie do sprawdzania pisowni po prostu nie istnieje, powiedział Hermjakob.

Oprogramowanie The Greek Room może skanować wersje robocze tłumaczenia i wyszukiwać niespójności w pisowni, oznaczając je dla użytkownika. Może również skanować tekst i upewniać się, że dobór słów jest prawidłowy, a także może oznaczać niespójności dla tłumacza. W przypadku długich i technicznych tłumaczeń, takich jak Biblia, takie narzędzia mogą zaoszczędzić tłumaczowi wiele czasu i wysiłku. Mathew zauważył, że nie wszystko, co oznaczy sztuczna inteligencja, będzie dobre, ale dostarczy pomocną listę elementów, które ludzcy tłumacze mogą przejrzeć i omówić.

Sztuczna inteligencja pomaga amerykańskim policjantom ścigać przestępców na drogach

Sztuczna inteligencja pomaga amerykańskim policjantom szukać „podejrzanych” wzorców ruchu, przekopując się przez bazy danych tablic rejestracyjnych z miliardami rekordów. Sprawa dotycząca handlu narkotykami w Nowym Jorku ujawniła jedno z największych dotychczasowych wdrożeń tej kontrowersyjnej technologii.

Jak donosi Forbes, w marcu 2022 r. David Zayas jechał autostradą Hutchinson River Parkway w Scarsdale. Jego samochód, szary Chevrolet, nie wyróżniał się niczym szczególnym, podobnie jak jego prędkość. Ale dla Departamentu Policji Hrabstwa Westchester samochód był powodem do niepokoju, a Zayas potencjalnym przestępcą. Nowe potężne narzędzie sztucznej inteligencji zidentyfikowało zachowanie pojazdu jako podejrzane.

Przeszukując bazę danych zawierającą 1,6 miliarda rekordów tablic rejestracyjnych zebranych w ciągu ostatnich dwóch lat z lokalizacji w całym stanie Nowy Jork, sztuczna inteligencja ustaliła, że samochód Zayasa był w podróży typowej dla handlarza narkotyków. Według prokuratury Departamentu Sprawiedliwości, w okresie od października 2020 r. do sierpnia 2021 r. odbył on dziewięć podróży z Massachusetts do różnych części Nowego Jorku, podążając trasami, o których wiadomo, że są używane przez handlarzy narkotyków podczas wyraźnie krótkich pobytów. Tak więc 10 marca 2022 r. policja Westchester zatrzymała go i przeszukała jego samochód, znajdując w środku 112 gramów cracku, półautomatyczny pistolet i 34 000 dolarów w gotówce, zgodnie z dokumentami sądowymi. Rok później Zayas przyznał się do zarzutu handlu narkotykami.

Nieopisana wcześniej sprawa pokazuje ewolucję policji opartej na sztucznej inteligencji i jest zwiastunem kwestii konstytucyjnych, które nieuchronnie będą jej towarzyszyć. Zazwyczaj technologia automatycznego rozpoznawania tablic rejestracyjnych (ALPR) jest wykorzystywana do wyszukiwania tablic powiązanych z określonymi przestępstwami. Ale w tym przypadku została ona wykorzystana do zbadania wzorców jazdy każdego, kto minął jedną z 480 kamer hrabstwa Westchester w ciągu dwóch lat. Adwokat Zayasa, Ben Gold, zakwestionował dowody zebrane przez sztuczną inteligencję przeciwko jego klientowi, potępiając je jako „niebezpieczne nadzór”.

I miał dane na poparcie tej tezy. System ALPR skanował ponad 16 milionów tablic rejestracyjnych tygodniowo z 480 kamer ALPR. Spośród tych systemów 434 były stacjonarne, przymocowane do słupów i znaków, podczas gdy pozostałe 46 były mobilne, przymocowane do pojazdów policyjnych. Sztuczna inteligencja nie tylko przyglądała się tablicom rejestracyjnym. Robiła również notatki na temat marki, modelu i koloru pojazdów — przydatne, gdy numer rejestracyjny podejrzanego pojazdu nie jest widoczny lub jest nieznany.

Dla Golda analiza przez system każdego samochodu uchwyconego przez kamerę stanowiła „bezprecedensowe wyszukiwanie”. „To jest widmo nowoczesnego nadzoru, przed którym musi chronić Czwarta Poprawka” — napisał w swoim wniosku o odrzucenie dowodów. „Jest to systematyczny rozwój i wdrażanie rozległej sieci nadzoru, która narusza uzasadnione oczekiwania społeczeństwa dotyczące prywatności.

Firma Rekor, zajmująca się sztuczną inteligencją, sprzedała swoją technologię ALPR co najmniej 23 departamentom policji i samorządom lokalnym w całej Ameryce. Przykład ten pokazuje z jednej strony, jak SI może być pomocna w łapaniu przestępców, a z drugiej strony, jak zagraża obywatelskim swobodom. Teraz bowiem każdy obywatel może być „prewencyjnie” obserwowany, a na jego temat mogą być zbierane wszelkie dane, które mogą zostać wykorzystane w dowolnym momencie.

Rola sztucznej inteligencji w ochronie środowiska naturalnego

David Rolnick, adiunkt w University School of Computer Science w Montrealu, twierdzi, że sztuczna inteligencja może odegrać znacząca rolę w ochronie środowiska naturalnego. Może ona bowiem dokonać zamiany surowych danych w użyteczne informacje. Jest w stanie chociażby pobrać duże zbiory danych, których przetworzenie zajęłoby człowiekowi zbyt wiele czasu, i wyciągać informacje w czasie rzeczywistym w celu kierowania polityką lub działaniami sektora prywatnego. Przykładem jest pobieranie zdjęć satelitarnych i określanie, gdzie ma miejsce wylesianie, jak zmienia się różnorodność biologiczna, gdzie społeczności przybrzeżne są zagrożone powodzią. Jak podkreśla wykładowca, tego rodzaju narzędzia są już wykorzystywane przez organizacje na całym świecie, od ONZ po firmy ubezpieczeniowe, a naukowcy pracują nad ich skalowaniem i ulepszaniem.

Sztuczna inteligencja może też dokonywać optymalizacji skomplikowanych systemów — takich jak system ogrzewania i chłodzenia w budynku, gdzie istnieje wiele elementów sterujących, które algorytm może skutecznie obsługiwać. Inteligentne termostaty stały się czymś powszechnym w domach prywatnych, w przypadku drapaczy chmur i fabryk.

Sztuczna inteligencja może też spełniać znaczącą rolę w prognozowaniu zapotrzebowania na energię elektryczną w określonym czasie lub obliczenie, jaka moc będzie dostępna w oparciu o słońce i wiatr, prognozowanie, jak będzie się poruszać burza lub jaka będzie produktywność upraw w oparciu o pogodę.

Sztuczna inteligencja może również przyspieszać symulacje naukowe, takie jak modelowanie klimatu i pogody. Dysponujemy, jak twierdzi Rolnick, naprawdę dobrymi modelami klimatycznymi, ale czasami ich uruchomienie może zająć miesiące, nawet na superkomputerach, co stanowi przeszkodę. Bardzo dobrze, jak sądzi, chociaż to wydaje się wątpliwe, rozumiemy zmiany klimatu, ale nie oznacza to, że dokładnie wiemy, co stanie się w każdym momencie. Tak więc posiadanie szybszych modeli klimatycznych może pomóc w lokalnych i regionalnych reakcjach. Dodaje też, że nie możemy jeszcze tego zrobić z GPT-4 lub innymi potężnymi systemami sztucznej inteligencji, ponieważ systemy te nie są napisane w ludzkim języku programowania.

Są to gigantyczne sztuczne sieci neuronowe i prawie nie mamy pojęcia, jak działają. Istnieje jednak bardzo aktywne pole badawcze, zwane „mechanistyczną interpretowalnością”. Jeśli w tej dziedzinie poczynimy tak duże postępy, że będziemy w stanie wykorzystać samą sztuczną inteligencję do wyodrębnienia wiedzy z innej sztucznej inteligencji i sprawdzenia, czego się nauczyła, będziemy mogli ponownie zaimplementować ją w innego rodzaju architekturze obliczeniowej — pewnego rodzaju kodzie dowodowym — któremu można zaufać.

Są tu zawarte niezwykle interesujące obserwacje dotyczące tego, jak np. dzięki SI możemy reagować na zniszczenie środowiska. Dzięki odpowiednim narzędziom moglibyśmy dużo szybciej np. wykrywać skażenie wody, przychodzić z pomocą drzewostanom, skuteczniej ratować ginące gatunki. Rola SI w sprawie walki z tzw. zmianami klimatu jest już jednak dużo bardziej dyskusyjna. Już teraz działania podejmowane w tej kwestii są oparte na matematycznych modelach, które mają wiele braków — nie ujmują wielu danych i opierają się na krótkiej perspektywie czasowej, bo pomiary dotyczące pogody zaczęły się stosunkowo niedawno. W związku z tym modele te obarczone są dużym prawdopodobieństwem błędu i mogą skłaniać nas do podjęcia niepotrzebnych i niewłaściwych działań.

Sztuczna inteligencja może usprawnić pracę wielu ludzi

Narzędzia sztucznej inteligencji, takie jak generatywne modele sztucznej inteligencji i modele konwersacyjne, jak ChatGPT, rozszerzyły korzyści płynące ze sztucznej inteligencji w zakresie przekształcania ludzkiej produktywności.

Na przykład studium przypadku, opisane przez portal venturebeat.com, wykazało, że wdrożenie generatywnej sztucznej inteligencji do tworzenia treści spowodowało 40% redukcję czasu spędzanego na sporządzaniu opisów produktów, pozwalając pracownikom skupić się na strategicznych zadaniach. Ponadto niedawne badanie ujawniło, że firmy korzystające z modeli konwersacyjnych, takich jak ChatGPT, doświadczyły 30% skrócenia czasu reakcji obsługi klienta, co doprowadziło do poprawy zadowolenia klientów. Te rozwijające się narzędzia sztucznej inteligencji umożliwiają firmom optymalizację przepływów pracy, usprawnienie współpracy i zapewnienie lepszych doświadczeń klientów, odblokowując niewykorzystany potencjał wzrostu.

Jedną z największych zalet sztucznej inteligencji jest jej zdolność do automatyzacji przyziemnych i czasochłonnych zadań. Delegując powtarzalne czynności do systemów opartych na sztucznej inteligencji, pracownicy mogą przekierować swoją uwagę na pracę strategiczną o wysokiej wartości. Przykładowo, wykorzystanie chatbotów opartych na sztucznej inteligencji do obsługi klienta znacznie skraca czas odpowiedzi, zwiększa zadowolenie klientów i uwalnia ludzi do obsługi bardziej złożonych zapytań.

Według badania przeprowadzonego przez firmę Gartner, przedsiębiorstwa mogą osiągnąć 25% wzrost ogólnej wydajności procesów biznesowych dzięki automatyzacji opartej na sztucznej inteligencji. Co więcej, wdrożenie automatyzacji opartej na sztucznej inteligencji może prowadzić do około 70% redukcji kosztów związanych z ręcznym wprowadzaniem danych i zadaniami przetwarzania danych.

Dane są siłą napędową współczesnych przedsiębiorstw, ale wydobycie istotnych informacji z ogromnych ilości danych może być trudnym zadaniem. Tutaj do gry wkraczają technologie sztucznej inteligencji, takie jak uczenie maszynowe i przetwarzanie języka naturalnego, umożliwiające analizę danych na dużą skalę, odkrywanie cennych wzorców i dostarczanie praktycznych spostrzeżeń. Na przykład, platformy analityczne oparte na sztucznej inteligencji mogą przetwarzać dane klientów w celu identyfikacji trendów, preferencji i wzorców zakupowych, umożliwiając firmom dostarczanie spersonalizowanych doświadczeń.

McKinsey donosi, że analiza danych oparta na sztucznej inteligencji może poprawić produktywność nawet o 40% w niektórych branżach. Co więcej, badanie przeprowadzone przez Forrester Consulting wykazało, że organizacje wykorzystujące sztuczną inteligencję do analizy danych doświadczyły 15% skrócenia czasu podejmowania decyzji, co pozwoliło im szybciej reagować na zmiany rynkowe i uzyskać przewagę konkurencyjną.

Liderzy biznesowi mogą wykorzystywać modele analizy oparte na sztucznej inteligencji do prognozowania trendów rynkowych, optymalizacji zarządzania zapasami i zwiększania wydajności łańcucha dostaw.

Włączając sztuczną inteligencję do procesów decyzyjnych, organizacje mogą ograniczać ryzyko, dokonywać świadomych wyborów i osiągać lepsze wyniki biznesowe. Badanie przeprowadzone przez Deloitte wykazało, że 82% firm, które wcześnie wdrożyły sztuczną inteligencję, doświadczyło pozytywnego wpływu na swoje procesy decyzyjne. Co więcej, raport Accenture stwierdza, że sztuczna inteligencja może doprowadzić do podejmowania lepszych decyzji, co spowoduje skuteczniejsze wykorzystanie zasobów i wyższą rentowność.

Technologie SI odgrywają istotną rolę w ułatwianiu współpracy i dzielenia się wiedzą między pracownikami, wykraczając poza granice geograficzne. Przykładowo, wirtualni asystenci wykorzystujący sztuczną inteligencję mogą planować spotkania, transkrybować rozmowy i ułatwiać wyszukiwanie informacji, usprawniając w ten sposób pracę zespołową i zwiększając produktywność. Badanie przeprowadzone przez Salesforce wykazało, że 72% wysokowydajnych zespołów sprzedażowych wykorzystuje sztuczną inteligencję do ustalania priorytetów potencjalnych klientów, umożliwiając przedstawicielom handlowym skupienie się na potencjalnych umowach o wysokiej wartości. Ponadto badania przeprowadzone przez McKinsey wskazują, że firmy, które priorytetowo traktują narzędzia do współpracy oparte na sztucznej inteligencji, osiągają 30—40% poprawę produktywności pracowników, co podkreśla wymierne korzyści płynące ze sztucznej inteligencji w zakresie wspierania efektywnej współpracy.

Nie dziwi w tej sytuacji tak wielkie zainteresowanie przedsiębiorstw, zwłaszcza dużych i bardzo dużych, sztuczną inteligencją. Nie oznacza to też braku korzyści dla małych firm. Już teraz mogą one zaoszczędzić na automatyzacji wielu procesów. W przypadku wydawania książek, z czym się osobiście zetknąłem, chodzi tu np. o automatyczne spisywanie wywiadów, co oszczędza czas i pieniądze. Takich działań natomiast jest bardzo wiele i pozwala naprawdę dużo zaoszczędzić, bo zamiast zatrudniania pracownika wystarczy wykupić niedrogą subskrypcję.

Sztuczna inteligencja ułatwi pracę w rolnictwie

Sztuczna inteligencja kojarzona jest z informatyka i nowoczesnym przemysłem, ale pomaga też w takich tradycyjnych obszarach, jak rolnictwo. W mediach wymieniany jest często jeden przykład z tej dziedziny. Rolnicy zainteresowani szybkim i dokładnym sposobem na pozbycie się chwastów ze swoich pól mają nową możliwość. Firma Carbon Robotics wysyła obecnie swój LaserWeeder do gospodarstw rolnych w całych Stanach Zjednoczonych. Maszyna wykorzystuje moc laserów i robotyki do usuwania chwastów z pól.

LaserWeeder może wyeliminować ponad 200 000 chwastów na godzinę i zaoferować do 80% oszczędności w ich zwalczaniu. LaserWeeder to urządzenie składające się z trzech rzędów 10 laserów, które poruszają się za ciągnikiem. Trzydzieści laserów pracuje, gdy urządzenie przemieszcza się po polu, pracując „z milimetrową dokładnością, omijając roślinę i zabijając chwast” — powiedział Mikesell, szef firmy. LaserWeeder „wykonuje równoważną pracę około 70 osób”.

Jest to „korzystne dla kosztów pracy”, a także „korzystne dla rolników borykających się z dostępnością siły roboczej” — dodał Mikesell.

„Nauczyliśmy go różnic między różnymi gatunkami chwastów” — stwierdził Mikesell o urządzeniu. „Nauczyliśmy go, jak chronić uprawy”.

Szef LaserWeeder kontynuował: „Nauczyliśmy go, jak rozumieć rozmiar chwastu, nie tylko pod względem obszaru, ale także jego grubości. Następnie podłączamy tę sieć neuronową — sztuczną inteligencję do głębokiego uczenia się — do wiązki laserów i pozwalamy jej zabijać chwasty”.

LaserWeeder „widzi wszystko, co znajduje się na polu” — powiedział. Działa bez szkodliwych herbicydów i chemikaliów. „Nie musisz mieć ludzi, którzy wyrywają chwasty” — dodał.

W tym wypadku mamy do czynienia ze zdrową technologią, która może stać się prawdziwą alternatywą dla trujących substancji. Trudno też mówić o tym, że wyprze z rynku pracowników, bo w tej branży i tak ich brakuje. Mamy tu do czynienia z ciężką, fizyczną pracą, niskopłatną i sezonową. Jest to więc przykład świetnego uzupełnienia ludzkiej pracy technologią, która faktycznie może pomóc rolnikom.

Sztuczna inteligencja w dziedzinie farmacji

Jak donosi Forbes, sztuczna inteligencja już teraz ma olbrzymie znaczenie w zakresie odkrywania leków, gdzie jest wykorzystywana do oceny kombinacji substancji i procedur, które poprawią zdrowie ludzi i zapobiegną pandemiom.

Yoshua Bengio, profesor informatyki na Uniwersytecie w Montrealu, uważa, że w przemyśle farmaceutycznym i badaniach uniwersyteckich zachodzi szybka transformacja, w której przechodzą one na wykorzystanie sztucznej inteligencji, aby pomóc w odkrywaniu nowych cząsteczek i nowych leków, które miałyby mniej skutków ubocznych i które pomogłyby nam leczyć choroby, których obecnie nie wiemy, jak leczyć, w tym potencjalnie raka.

Tutaj chyba ludzkość może odnieść największą korzyść z SI, bo może ona przyspieszyć znacznie badania, a także, zmniejszając ich koszt, doprowadzić do odkrycia leków na rzadkie choroby, których teraz nie opłaca się opracowywać. Nawet w tym obszarze istnieją jednak potencjalne zagrożenia, jak to, że SI się po prostu pomyli czy skieruje medycynę na niewłaściwe tory. Przykładem, że to już się dzieje, jest fakt, że lockdowny wprowadzano kierując się modelami matematycznymi. Obecnie wielu specjalistów kwestionuje to, że były naprawdę potrzebne, zarzucając SI, że jej przewidywania były zawodne, bo opierały się na niepełnych danych.

Analityka predykcyjna, czyli przewidująca, jest jednym z najbardziej fascynujących zastosowań sztucznej inteligencji w opiece zdrowotnej. Aby prognozować przyszłe wyniki na podstawie aktualnego stanu zdrowia lub objawów pacjenta, analityka predykcyjna wykorzystuje dane z przeszłości dotyczące jego chorób i leczenia. Umożliwia to lekarzom wybór najlepszego sposobu postępowania w przypadku leczenia osób z uporczywymi chorobami lub innymi problemami zdrowotnymi. Zespół Google DeepMind AI niedawno opracował komputery, które mogą prog­nozować wiele konfiguracji białek, co jest bardzo korzystne dla nauki i badań medycznych.

Sztuczna inteligencja będzie się rozwijać w przewidywaniu wyników zdrowotnych, oferowaniu zindywidualizowanych planów opieki, a nawet leczeniu chorób w trakcie ich rozwoju. Dzięki temu pracownicy służby zdrowia będą mogli skuteczniej leczyć pacjentów i to niekoniecznie w szpitalach, ale też w domu.

Laboratorium na Uniwersytecie Cambridge opracowuje narzędzia SI dla naukowców, lekarzy, pielęgniarek i pacjentów. Ludzie często myślą, że główne możliwości sztucznej inteligencji w opiece zdrowotnej polegają na analizowaniu obrazów, takich jak skany MRI, lub znajdowaniu nowych związków leków. Istnieje jednak wiele innych możliwości. Jedną z rzeczy, które bada laboratorium, jest medycyna spersonalizowana lub precyzyjna. Zamiast jednego rozmiaru dla wszystkich, stara się zobaczyć, w jaki sposób można dostosować leczenie, aby odzwierciedlało unikalny profil medyczny i styl życia danej osoby.

Wykorzystanie spersonalizowanej medycyny opartej na sztucznej inteligencji może pozwolić na skuteczniejsze leczenie powszechnych schorzeń, takich jak choroby serca i nowotwory, lub rzadkich chorób, takich jak mukowiscydoza. Mogłoby to pozwolić klinicystom na optymalizację czasu i dawki leków dla poszczególnych pacjentów lub przesiewanie pacjentów przy użyciu ich indywidualnych profili zdrowotnych, a nie obecnych ogólnych kryteriów wieku i płci. Takie spersonalizowane podejście może prowadzić do wcześniejszej diagnozy, zapobiegania i lepszego leczenia, ratując życie i lepiej wykorzystując zasoby.

Wiele z tych samych technik można zastosować w badaniach klinicznych. Próby kliniczne czasami kończą się niepowodzeniem, ponieważ średnia odpowiedź na lek nie spełnia celów badania. Jeśli jednak niektóre osoby biorące udział w badaniu dobrze zareagowały na leczenie, sztuczna inteligencja może pomóc znaleźć te grupy w istniejących danych z badań. Tworzenie modeli danych poszczególnych pacjentów lub „cyfrowych bliźniaków” mogłoby pozwolić naukowcom na przeprowadzenie wstępnych badań przed rozpoczęciem kosztownych badań z udziałem prawdziwych ludzi. Skróciłoby to czas i inwestycje potrzebne do stworzenia leku, sprawiając, że interwencje poprawiające jakość życia stałyby się komercyjnie opłacalne.

Naukowcy wykorzystali sztuczną inteligencję do analizy 6680 związków, ostatecznie odkrywając dziewięć potencjalnych antybiotyków. Specjaliści SI już teraz rozważają potencjał dużych modeli językowych, takich jak ChatGPT, dla opieki zdrowotnej. Narzędzia te mogłyby pomóc w wypełnianiu formalności, zalecać protokoły badań leków lub proponować diagnozy. Chociaż mają ogromny potencjał, ryzyko i wyzwania są oczywiste. Nie można polegać na systemie, który regularnie fabrykuje informacje lub jest szkolony na podstawie stronniczych danych. ChatGPT nie jest w stanie zrozumieć złożonych warunków i niuansów, co może prowadzić do błędnych interpretacji lub niewłaściwych zaleceń. Mogłoby to mieć katastrofalne skutki, gdyby zostało wykorzystane w dziedzinach takich jak zdrowie psychiczne.

Jeśli sztuczna inteligencja zostanie wykorzystana do zdiagnozowania kogoś i popełni błąd, musi być jasne, kto jest za to odpowiedzialny: twórcy sztucznej inteligencji czy pracownicy służby zdrowia, którzy z niej korzystają? Wytyczne i regulacje etyczne muszą jeszcze nadążyć za tymi technologiami. Trzeba zająć się kwestiami bezpieczeństwa związanymi z używaniem dużych modeli językowych z prawdziwymi pacjentami i upewnić się, że sztuczna inteligencja jest opracowywana i wdrażana w sposób odpowiedzialny.

Sztuczna inteligencja przywróciła głos sparaliżowanej kobiecie

Kolejnym przykładem zastosowania sztucznej inteligencji w medycynie jest przełomowy implant mózgowy i cyfrowy awatar (reprezentacja użytkownika w świecie wirtualnym, np. miniaturka twarzy na forum Internetowym — przyp. Ch. K.), które pozwalają osobie po udarze mówić i korzystać z mimiki twarzy po raz pierwszy od 18 lat. Historię tę można przeczytać na stronie Uniwersytetu Kalifornii w San Francisco.

W wieku 30 lat Ann doznała udaru pnia mózgu, w wyniku którego została poważnie sparaliżowana. Straciła kontrolę nad wszystkimi mięśniami w swoim ciele i nie była w stanie nawet oddychać. Nastąpiło to nagle pewnego popołudnia, z powodów, które wciąż pozostają nieznane.

Przez następne pięć lat Ann kładła się spać każdej nocy w obawie, że umrze we śnie. Minęły lata fizykoterapii, zanim mogła poruszać mięśniami twarzy na tyle, by śmiać się lub płakać. Mimo to mięśnie, które pozwoliłyby jej mówić, pozostały nieruchome.

„Z dnia na dzień wszystko zostało mi odebrane” — napisała Ann, korzystając z urządzenia, które umożliwia jej powolne pisanie na ekranie komputera za pomocą niewielkich ruchów głowy.

Dziś Ann pomaga naukowcom z UC San Francisco i UC Berkeley w opracowaniu nowej technologii mózg-komputer, która pewnego dnia może pozwolić ludziom takim jak ona na bardziej naturalną komunikację za pośrednictwem cyfrowego awatara przypominającego człowieka.

To pierwszy raz, kiedy mowa lub mimika twarzy zostały zsyntetyzowane na podstawie sygnałów mózgowych. System może również zmieniać te sygnały na tekst z prędkością prawie 80 słów na minutę, co stanowi znaczną poprawę w stosunku do 14 słów na minutę, które dostarcza jej obecne urządzenie komunikacyjne.

Edward Chang, z instytutu chirurgii neurologicznej na Uniwersytecie Kalifornii, który pracował nad technologią znaną jako interfejs mózg-komputer (BCI) przez ponad dekadę, ma nadzieję, że ten najnowszy przełom badawczy, ogłoszony 23 sierpnia 2023 r. w „Nature”, doprowadzi do zatwierdzonego przez FDA (amerykańską Agencję Żywności i Leków) systemu, który umożliwia odczytywanie mowy z sygnałów mózgowych w najbliższej przyszłości. „Naszym celem jest przywrócenie pełnego sposobu komunikacji, który jest dla nas najbardziej naturalnym sposobem kontaktu z innymi” — powiedział Chang.

Przed udarem w 2005 r. Ann była nauczycielką matematyki w szkole średniej w Kanadzie. W 2020 r. opisała swoje życie w tekście, który został opublikowany. Napisała w nim: „Zespół zamknięcia w sobie, czyli LIS, jest dokładnie taki, jak brzmi. Jesteś w pełni świadomy, masz pełne czucie, wszystkie pięć zmysłów działa, ale jesteś zamknięty w ciele, w którym nie działają żadne mięś­nie. Nauczyłam się ponownie samodzielnie oddychać, mam teraz pełny ruch szyi, mój śmiech powrócił, mogę płakać i czytać, a z biegiem lat mój uśmiech powrócił, a ja jestem w stanie mrugnąć i powiedzieć kilka słów”.

W miarę powrotu do zdrowia zdała sobie sprawę, że może wykorzystać własne doświadczenia, aby pomóc innym, a teraz aspiruje do zostania doradcą w ośrodku rehabilitacji ruchowej.

„Chcę, aby pacjenci widzieli mnie i wiedzieli, że ich życie jeszcze się nie skończyło” — napisała. „Chcę im pokazać, że niepełnosprawność nie musi nas powstrzymywać ani spowalniać”.

Dowiedziała się o badaniu Changa w 2021 r. po przeczytaniu o sparaliżowanym mężczyźnie o imieniu Pancho, który pomógł zespołowi przetłumaczyć sygnały mózgowe na tekst, gdy próbował mówić. Wiele lat wcześniej doznał on również udaru pnia mózgu i nie było jasne, czy jego mózg nadal może sygnalizować ruchy potrzebne do mówienia. Nie wystarczy tylko o czymś myśleć; osoba musi faktycznie próbować mówić, aby system mógł to odebrać. Pancho stał się pierwszą osobą żyjącą z paraliżem, która zademonstrowała, że możliwe jest dekodowanie sygnałów mowy z mózgu na pełne słowa.

Aby zsyntetyzować mowę Ann, zespół opracował algorytm syntezy mowy, który spersonalizował tak, aby brzmiał jak jej głos przed urazem, wykorzystując nagranie Ann przemawiającej na swoim ślubie.

„Mój mózg czuje się dziwnie, gdy słyszy mój zsyntetyzowany głos” — napisała w odpowiedzi na pytanie. „To jak usłyszeć starego przyjaciela”.

Z niecierpliwością czeka na dzień, w którym jej córka — która zna tylko bezosobowy, brytyjski akcent głosu swojego obecnego urządzenia komunikacyjnego — również będzie mogła go usłyszeć.

Zespół animował awatara Ann za pomocą oprogramowania, które symuluje i animuje ruchy mięśni twarzy, opracowanego przez Speech Graphics, firmę zajmującą się animacją twarzy opartą na sztucznej inteligencji. Naukowcy stworzyli niestandardowe procesy uczenia maszynowego, które pozwoliły oprogramowaniu firmy połączyć się z sygnałami wysyłanymi z mózgu Ann, gdy próbowała mówić, i przekształcić je w ruchy na twarzy jej awatara, sprawiając, że szczęka otwiera się i zamyka, usta wysuwają się i zaciskają, a język unosi się i opada, a także ruchy twarzy oznaczające szczęście, smutek i zaskoczenie.

Sztuczna inteligencja może wspomagać prace sędziów

W Chinach sędziowie powinni konsultować się z systemem sztucznej inteligencji przed wydaniem wyroku. Jeśli odrzucą porady maszyny, muszą wydać pisemne oświadczenie.

Portal the-decoder.com zwraca uwagę, że od 2016 r. Chiny współpracują z największymi firmami technologicznymi w kraju nad opracowaniem narzędzi automatyzacji opartych na sztucznej inteligencji dla własnego systemu sądowniczego. Jak dotąd system został zaprojektowany w celu zmniejszenia obciążenia pracą prokuratorów, zwłaszcza w przypadku rutynowych zadań. Na przykład automatycznie sporządza akty oskarżenia na podstawie instrukcji człowieka.

Jednak według raportu opublikowanego w South China Morning Post (SCMP), system SI staje się coraz głębiej zintegrowany z chińskim systemem prawnym. Sąd Najwyższy przyjął zasadę, że sędziowie muszą postępować zgodnie z zaleceniami systemu SI, a jeśli nie postępują zgodnie z nimi, przedstawiają pisemne uzasadnienie, które jest zawarte w dokumentach sprawy.

Według SCMP, Sąd Najwyższy postrzega system jako sposób na ujednolicenie krajowego orzecznictwa i przeniesienie go do dużych części Chin, gdzie występują „znaczne różnice w rozwoju regionalnym, zarządzaniu i dochodach”.

Przed wprowadzeniem systemu każdy lokalny sąd utrzymywał własny system informacyjny, a sędziowie rzadko dzielili się informacjami z innymi sądami lub Pekinem, donosi SCMP. Dzięki nowemu „inteligentnemu systemowi sądowemu” każdy sąd musi mieć ujednolicony cyfrowy system raportowania połączony z centralną bazą danych w Pekinie.

Według Sądu Najwyższego, system uczy się na podstawie 100 000 spraw każdego dnia i monitoruje je pod kątem ewentualnych błędnych decyzji lub korupcji. Oprócz rejestrów sądowych, system ma mieć dostęp do baz danych policji, prokuratorów i agencji rządowych.

Oczekuje się na przykład, że sztuczna inteligencja pomoże w egzekwowaniu wyroków „poprzez niemal natychmiastowe znalezienie i przejęcie majątku skazanego oraz wystawienie go na aukcję Internetową”. W połączeniu z chińskim systemem kredytów socjalnych może odmówić dłużnikom dostępu do transportu, hoteli lub innych usług socjalnych i egzekwować ten zakaz.

W czasopiśmie opublikowanym przez Chińską Akademię Inżynierii Xu i współpracownicy publikują pozytywne dane na temat systemu, twierdząc, że zmniejsza on średnie obciążenie pracą sędziów o ponad jedną trzecią. Według nich w latach 2019—2021 zaoszczędzono 1,7 miliarda roboczogodzin i równowartość 45 miliardów dolarów w opłatach prawnych. System ten, jak powiedział Xu, „wniósł znaczący wkład w sądowy postęp ludzkiej cywilizacji”.

Przeczytałeś bezpłatny fragment.
Kup książkę, aby przeczytać do końca.
E-book
za 15.75
drukowana A5
za 52.76