GDMMiA – Internetem wiedzy!

Analizując problem Globalnej Dynamicznej Mapy Myśli i Algorytmów (GDMMiA) musiałem sobie odpowiedzieć na pytanie, co dla człowieka jest ważniejsze – informacja, czy WIEDZA i Umiejętności rozwiązywania problemów (MĄDROŚĆ)?

Dotychczas korzystamy z Internetu jako źródła informacji. Jest to możliwe dzięki wyszukiwarkom takim jak np Google. Silniki tych narzędzi oparte są na katalogowaniu linków do treści zawartych na konkretnych stronach Internetowych. W miarę rozwoju tych narzędzi otrzymujemy coraz trafniejsze odpowiedzi na nasze zapytania. Niestety 1,5 miliarda stron www – (stan na sierpień 2019) zalewa nas ilością informacji. Toniemy w gąszczu wyszukanych stron. Czasem te istotne dla nas nie są odpowiednio pozycjonowane. Algorytmy wyszukiwania układane są pod kątem komercyjnym. Maja przynieść dochód dostawcom przeglądarek z reklam i zbieraniu danych w celach m.in reklamowych. Oczywiście wyszukiwania muszą zadowalać większość (ale nie wszystkich !) internautów, bo to oni są odbiorą reklam.  Procesy te wspierane są elementami wyszukiwania semantycznego, wyszukiwanie obrazem oraz sztuczną inteligencją i jej algorytmami. Jednak to jest ciągle TYLKO INFORMACJA.

Czym różnią się pojęcia wiedzy i informacji

Wiedza (wg definicja wg encyklopedii PWN) – ” w najogólniejszym sensie rezultat wszelkich możliwych aktów poznania; w węższym znaczeniu — ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnością ich wykorzystywania;

Informacja (informacja naukowa– wg encyklopedii PWN) – “naukozn. zorganizowana działalność związana z gromadzeniem, przetwarzaniem i udostępnianiem wiadomości z różnych dziedzin, szczególnie nauki i techniki”;

Jak widać z tych definicji wiedza wykorzystuje informacje w praktyce. Same informacje nie mają efektu sprawczego. (Co nam przyjdzie po skoczeniu z samolotu z informacji, że istnieje przyciąganie ziemskie oraz o działaniu spadochronu, jeśli nie mamy WIEDZY, że w takiej sytuacji należy pociągnąć za rączkę od spadochronu ( o ile wcześniej wiedzieliśmy, że trzeba go założyć!)

W codziennym życiu najważniejsza jest dla nas WIEDZA I UMIEJĘTNOŚĆ rozwiązania naszych problemów. Informacja jest tylko pożywką do zdobywania wiedzy, ale jej nie zastąpi. Jak mówiło kiedyś stare powiedzenie złoto i brylanty to tylko mąka a dolary są chlebem. Tak samo jest z informacją, która jest jak złoto (domyślamy się ile Facebook dostał za nasze “darmowe” informacje o naszych profilach – afera Cambridge Analytica). Wiedza i Umiejętności są zaś chlebem. Bez chleba umrzemy! Swoją drogą – ile mógłby zażądać Facebook za gotowe algorytmy strategii marketingowych oparte na swoich informacjach?

Kolejnym stadium rozwoju strategii rozwiązywania problemów będzie poziom MĄDROŚCI każdego człowieka. Według definicji Wikipedii mądrość w najwęższym znaczeniu to umiejętność podejmowania uzasadnionych decyzji, które w dłuższej perspektywie przynoszą pozytywne rezultaty. W innym ujęciu można powiedzieć, że mądrość to umiejętność praktycznego wykorzystywania posiadanej wiedzy i doświadczenia.

 

Prawdopodobnie doszliśmy do kresu możliwości Google jak samodzielnego narzędzia. Potrzebne będzie dostarczanie Wiedzy na żądane zapytania internautów. Wyszukiwarki dostarczą tylko informacji do analizy i tworzenia Map Myśl. Te ostatnie będą źródłem tworzenia algorytmów wykonawczych zaimplementowanej wiedzy. Wszystko zostanie skatalogowane w wielkiej bazie danych.. Czas na nowe narzędzia dostarczające rozwiązań. Znowu przywołam stare (może mało eleganckie) powiedzenie “Z rączej świni konia wyścigowego się nie zrobi!” Czas na zakup RUMAKA!

autor

 

Może GDMMiA jest takim pomysłem, może sztuczna inteligencja wesprze tę ideę, ALBO (!)  AI pójdzie własna drogą – nic nie będziemy musieli umieć  rozwiązywać, to sztuczna inteligencja nas ubezwłasnowolni i zrobi wszystko za nas?

 

Globalna Mapa Algorytmów – schematy

Chciałbym zrealizować projekt Globalnej Dynamicznej Mapy Myśli i Algorytmów (GDMMiA) – Internetu wiedzy – tworzącego pokolenie ekspertów.

Wszystkie nasze czynności są algorytmami. Inspiracją do tego projektu była moja praca lekarza konsultanta trudnych przypadków medycznych – to jest takich, w których nie udało się dotychczas ustalić rozpoznania. W medycynie możemy szybko działać, dzięki procedurom, które są niczym innym jak algorytmem zalecanym do realizacji.

Wczoraj postanowiłem poprosić przedstawiciela Microsoft Azure o odpowiedź na pytania:

1) Czy Microsoft ma już takie rozwiązanie?
2) Czy zdaniem Microsoft taki projekt jest realny i ma sens biznesowy?
3) Czy Microsoft byłby w stanie przygotować takie narzędzie i jaki byłby jego koszt takiego rozwiązania?

Zamiast pytać się, czy projekt można “zmonetyzować”, powinienem zapytać, ile ktoś mógłby zapłacić za kupno gwarantowanych co do skutku algorytmów? Np. za algorytm:

  1. Jak zapobiec globalnemu ociepleniu?
  2. Jak zarabiać 1 milion dolarów dziennie?  🙂

Okazuje się, że zrozumienie tematu wymaga wielu wyjaśnień (i to najlepiej po angielsku) . W tym miejscu postaram się w schematyczny sposób przekazać ideę projektu.

Ludzie muszą zmagać się z codziennymi problemami i chcą realizować swoje marzenia.(od tego rysunku się zaczęło w 2011 roku- wszystko można narysować- 🙂

Wiele z tych problemów powtarza się i u każdego z nas. Nauczyliśmy się radzić sobie z nimi dzięki własnemu doświadczeniu (wystarczy raz się oparzyć ogniem – a pamięta się to na lata) , mądrości poprzednich pokoleń przekazywanych z ust rodziców dzieciom, nauczycieli uczniom. Z czasem rady zapisywano w książkach, potem na filmach i nagraniach, a ostatnio w Internecie.

Korzystanie z doświadczeń innych pozwala nam na unikanie ich błędów, ale także przyspiesza prawidłową realizację własnych celów. Dlaczego za każdym razem musimy wywarzać otwarte drzwi. Chcesz upiec dobre ciasto – weź gotowy przepis.

Problem z przepisami jest taki, że jest ich wiele i nie są skatalogowane hierarchicznie i pod kątem ich przydatności. Nie zawsze wiemy skąd się wziął pomysł na takie, a nie inne rozwiązanie.

Google pozwala nam wyszukać tylko informacje znajdujące się na stronach www zawierających informacje zgadzające się z naszym zapytaniem (robi to coraz lepiej).

Cas potrzebny na analizę informacji i ilość odpowiedzi jest nadal przytłaczająca dla pytającego. Niestety, są to tylko INFORMACJE.

Jeśli chcemy rozwiązać problem, zmienić coś w życiu, osiągnąć swoje cele, to nie wystarczy wiedzieć COŚ? Trzeba wiedzieć DLACZEGO i W JAKI SPOSÓB?

Trudno jest wyszukiwać stare rozwiązania (szczególnie czasopismach i książkach nie wspominając  o filmach) i dołączać je w prosty sposób do nowych przepisów. Przy natłoku wiedzy i raczkującej sztucznej inteligencji potrzebne jest nam narzędzie, które pozwoli natychmiastowe generowanie najlepszych rozwiązań problemów, według najbardziej aktualnej informacji, dostępne od ręki w ciągu kilku sekund.

Narzędziem takim może być sztuczna inteligencja, która po przeanalizowaniu dostępnych w całym Internecie baz danych wyciągnie z nich wnioski i stworzy algorytm pozwalający ustalić czynności i ich kolejność, aby zrealizować projekt lub rozwiązać problem.

Niestety z czasem stracimy kontrolę nad algorytmami sztucznej inteligencji, możemy się stać społeczeństwem bezwolnych analfabetów poddanych nadzorowi “wielkiego brata”.

Dla tych rozwiązań przydatne może być stworzenie inteligentnego narzędzia, które będzie wspomagało tworzenie sztucznej inteligencji (będzie jej dostarczał ludzkich algorytmów). Narzędzie to do momentu, gdy AI stanie się faktem, pozwoli także na równoległe skatalogowanie i ciągłe aktualizowanie łatwo dostępnej wiedzy. Tworzone przez ludzi świadomych, kreatywnych będzie zawierało zrozumiałe dla nas algorytmy rozwiązywania wszystkich naszych problemów. Jak to zrobić? Na chwilę obecną uważam, że cyfrowe mapy myśli spełniają najwięcej wymogów, jakie można sobie postawić w takim projekcie.

Mapy myśli pozwalają analizować problem, gromadzić linki lub informacje potrzebne do rozwiązań, tworzyć strategie, dołączać algorytmy lub pliki a algorytmami, można je eksportować do plików pdf, html, jpg, word.

Mapy myśli, a szczególnie ALGORYTMY dają szansę łatwej weryfikacji oryginalności rozwiązania (czy ktoś nie powiela tego samego pomysłu innymi słowami). Narzędzie  potrzebuje niewiele treści pisanej (szybki zapoznanie się z treścią), bazy danych można przechowywać poza mapami myśli, dlatego też nie są one zbyt “danochłonne”, łatwo dołączać do mapy centralnej pojedyncze mapy dotyczące kompleksowych rozwiązań (ale mniejszych zagadnień – klocki te nazywam to “cegiełkami” mapy). Można mapę budować równocześnie przez społeczność na całym świecie (podobnie jak WIKI). Międzynarodowy dostęp do narzędzia pozwala tworzyć GLOBALNE rozwiązanie informatyczne.Do ustalenia pozostanie, czy ze względów technicznych powinna to być  mapa myśli zawierająca algorytmy, czy będą to dwie oddzielne, ale sprzężone ze sobą  bazy danych

“Cegiełkowy” system budowy mapy umożliwia jej ciągłą aktualizację i rozwój, ale przede wszystkim na wykorzystanie w tej architekturze technologii blockchain , która zabezpieczy dane przed hakerami, ale też może zapewnić prawa autorskie, które można skomercjalizować. Uzyskane fundusze pozwolą na samofinansowanie się projektu, mogą też przynieść duże zyski właścicielom projektu. Poszczególne elementy mapy i dołączone do niej algorytmy można wykorzystać do pisania książek, tworzenia filmów, reklam, w edukacji biznesie (M-book Shop).

Gdzie przechowywać tak olbrzymie ilości danych. Może pomocna będzie bezpieczna chmura firmy Oracle i jej system blockchain.

Procedura rozwiązywania problemów jest dość złożona

Tak wyglądała praca koncepcyjna nad tym pomysłem i wpisem. Myślenie koncepcyjne staram się zaczynać od końca, tj. od efektu jaki chcę osiągnąć, a potem szukam prawidłowości i możliwych planów realizacji.

Zaczynamy:

W GDMMiA wybieram walkę z problemem

Jak budować Mapy Myśli i Algorytmów

Utworzyć strukturę Mapy ( klasyfikację na wzór np. klasyfikacji wyrobów i usług). W rozwiązywaniu problemów bardzo ważne jest precyzyjne zdefiniowanie problemu.W definiowaniu problemu przydatne są poprzednie mapy lub nowe ich tworzenie w oparciu o aktualne fakty lub burzę mózgów.

Pytamy: “Na czym dokładnie polega problem!”

Niepełna definicja problemu może prowadzić do zupełnie innych rozwiązań. Równocześnie może się zdarzyć sytuacja odwrotna. Wcześniej mieliśmy rozbudowany problem, z wieloma jego cechami, a w naszej sytuacji jest znacznie prostszy model. Możemy wówczas wykorzystać prostszy algorytm opracowany np. tylko dla dwóch cech.

Jeśli zarządzanie wyszukiwaniem algorytmów będzie wymagało ustrukturyzowanej hierarchicznej wersji tekstowej w edytorach tekstu – można wyeksportować mapy do plików tekstowych np. w edytorach word, czy openwriter.

Zaleta tego projektu może być łatwe i kontrolowane aktualizowanie potrzebnych nam algorytmów. Na przykład jeśli mamy algorytm opinii prawnej na dzień 1 stycznia roku 2020, a prawo zmieniono wczoraj o nowe paragrafy i wykreślono niektóre regulacje – mapa pozwala stworzyć aktualna wersję opinii prawnej – zachowując nadal aktualne przepisy o nowe rozwiązania – w wielu różnych konstelacjach opracowań eksperckich.

Dodawanie nowych cech do rozwiązywanego problemu może tak wyglądać

Jak widać, już raz opracowany algorytm można wykorzystać w innej konstelacji. To jest kolejna zaleta GDMMiA. Czerpiemy mądrość z poprzednich rozwiązań. jeśli sprawdziły się one wcześniej w praktyce, to maja one ogromną wartość. Unikamy błędów, o których nawet byśmy nie pomyśleli, oszczędzamy pieniądze oraz najważniejsza walutę jaka jest CZAS. Powstanie wówczas powiedzenie Człowiek ( w tym Polak) przed szkodą nie jest głupi. 🙂

Źródłem Mapy Algorytmów będą dotychczasowe algorytmy opisane w literaturze (szczególnie naukowej)  i planach zrealizowanych z sukcesem projektów, procedury opisane w tysiącach firm. Uzupełnieniem może być sztuczna inteligencja, która przeanalizuje i przełoży tekst pisany lub grafiki, filmy  na algorytmy (np. książkę przedstawi w postaci algorytmu w trybie – “Co autor miał na myśli – tylko działanie a nie opisy słowne).

W tworzeniu map myśli (Szczególnie ALGORYTMÓW) przydatne są drzewa decyzyjne (problemów i celów oraz strategiczne)

 

Dodawać do mapy będzie można  po zweryfikowaniu nowych elementów, zachowując chronologię i autentyczność nowego schematu, stworzyć system weryfikacji jakości map (rangowanie, ocena społeczna, ocena AI). Stabilność projektu (ochronę przed hakerami), chronologię dodawania rekordów, a co za tym idzie prawo autorskie i wynalazcze może zagwarantować technologia BLOCKCHAIN. Technologia ta pozwoli także na komercyjne wykorzystanie GDMMiA dzięki tokenizacji i możliwości płatności kryptowalutami (np. Bitcoin) . Daje to GLOBALNY zasięg projektu.

Np. jeśli przedsiębiorca amerykański będzie chciał zainwestować w Polsce – może wykupić ekspertyzę znajdująca się w GDMMiA lub poprosić o jej odpłatne uzupełnienie przez prawników w USA i Polsce. Prawnicy mogą bardzo szybko dodać takie rozwiązania do GDMMiA i później odpłatnie je udostępniać innym klientom.

 

Do mapy będą dodawane “cegiełki” map.

 

Jak współtworzyć Mapy przy udziale sztucznej inteligencji (AI) – wykorzystać AI do konwersji tekstów pisanych, filmów, obrazów, dźwięków, zapachów, dotyku na algorytmy. Algorytmy dodawać do GDMMiA

Jak tworzyć listy To Do z Algorytmów – konwersja na pliki tekstowe lub graficzne

Jak eksportować dane z Mapy Myśli

Proszę zauważyć, że ładniej można by to zaprezentować, przy automatycznej zamianie obrazu na algorytm, gdyby było takie narzędzie? Ilu programistom oszczędziłoby to czasu przy przelewaniu swoje myśli z kartki papieru na algorytmy w komputerze?

JAK KOMERCJALIZOWAĆ PROJEKT? (wstępny projekt z 2011 r)

Komercjalizacja i finansowanie projektu.

Tworzenie bazy wiedzy z częściowo odpłatnym dostępem. Klient zamawia ekspertyzę – płaci- portal wykorzystuje swoje bazy + sztuczna inteligencje i płatnych ekspertów -> płatna ekspertyza. Wynik ekspertyzy dodawany jest automatycznie do mapy myśli i algorytmów – do wykorzystania w kolejnych ekspertyzach. Można szukać inwestorów – np. crowdfunding.

Jak zrealizować projekt

Prace nad projektem można zacząć od prostego narzędzia do konwersji plików graficznych do map myśli i algorytmów! Przydatne będzie narzędzie do automatyzowania tworzenia algorytmu z mapy myśli.(Sztuczna inteligencja, Uczenie maszynowe? sieci neuronowe, przetwarzanie języka naturalnego, translatory typu Tłumacz Goolgle). Trzeba połączyć zbieranie informacji, ich analizę i wyciąganie wniosków z tworzeniem list “To do”

 

Wirtualna i Rozszerzona rzeczywistość -Microsoft Azure – język Luna w analizach dla GDMMiA.

Elementem procesu tworzenia Globalnej Dynamicznej Mapy Myśli i Algorytmów powinna być analiza problemu (lub wyzwania).

Najpierw trzeba zdefiniować problem, następnie zgromadzić jak najwięcej przydatnych informacji (przeszukiwanie baz danych – przez np. Azure, tłumacz Microsoft, konwersję treści pisanej i graficznej i wideo na algorytmy – nie znam takiego narzędzia). Następnie należy uporządkować dane. Zaproponować koncepcje rozwiązań. Przenieść je do map myśli. Powinno się stworzyć narzędzia do wizualizacji rozwiązań. Przydatne będzie pokazanie różnych wariantów danego projektu po zmianie dowolnego parametru (taką wizualizację graficzną danych może zapewnić  – np. Język Luna ). Jak działać może  dynamiczne projektowanie można zobaczyć przy planowaniu nowego centrum MIT w filmie Marcina Prokopa z TVN “Człowiek przyszłości”

Wyobraźnię przestrzenną i projektową może zapewnić rzeczywistość wirtualna i rozszerzona z dostępem do wielu danych i wizualnych modeli badanych pomysłów).

Już widzę menadżera w małej firmie w okularach do wirtualnej rzeczywistości, który planuje swój nowy projekt w firmie. Dzięki algorytmom GDMMiA uniknie wielu błędów i szybko podejmie najlepsze decyzję decyzję (doradcami będzie cała społeczność map algorytmów).

Wyzwaniem może być stworzenie programu, który od razu przenosił wizualizacje i koncepcje do map myśli, a z nich do algorytmów). Myślę, że zespół Azure dałby sobie z tym radę?

Warto zobaczyć : How Far is Too Far? | The Age of A.I.

 

 

Microsoft Azure – szansą na zbudowanie Globalnej Dynamicznej Mapy Myśli i Algorytmów

Ostatnio próbowałem zainteresować tematem Globalnej Dynamicznej Mapy Myśli i Algorytmów (GDMMiA) polskich informatyków. Niestety są tak zajęci, że może zajmą się tym w grudniu (wtedy chyba tylko po to, żeby przeprowadzić wywiad 🙂

Postanowiłem poszukać pomocy poza Polską. Okazuje się, że firma Microsoft ma świetną bazę do realizacji mojego projektu. Niestety nie ma bezpośredniego kontaktu do działu usług poznawczych i sztucznej inteligencji (czekam na odpowiedź).

Platformą do świadczenia usług dla procesów poznawczych jest Cognitive ServicesMicrosoft Azure.

Oferta Azure przydatna dla GDMMiA obejmuje m.in.:

sztuczną inteligencję, tłumacz 70 języków w systemie sieci neuronowych, transkrypcja mowy na tekst, analiza wideo (być może pozwoli na tworzenie algorytmów z filmów),  uczenie maszynowe (do tworzenia mapy algorytmów), analizy danych pod kątem map algorytów – w tym ranking najlepszych, łańcuch bloków (block chain – pozwoli na bezpieczną strukturę map i zapewni prawa autorskie – przydatne w monetyzacji projektu oraz zadba chronologię dodawanych algorytmów), bazy danych – będą pożywka dla algorytmów), rzeczywistość mieszana umożliwi łatwiejsza komunikację oraz tworzenie wirtualnych map myśli), aplikacje mobilne – aplikacja map dostępna na urządzeniach mobilnych, sieć www – obsługa map w całym świecie, wyszukiwanie obrazem (szukamy graficznych map myśli i algorytmów, które konwertujemy na algorytmy i dodamy do GDMMiA – na razie nie znam narzędzia na świecie do takiej konwersji!??? – technicznie nie jest to chyba zbyt skomplikowane z np z  do JAVA).

Źródła zrzutów ekranów użytych w prezentacji: strona www Microsoft Azure

A. Sztuczna Inteligencja i uczenie maszynowe:

Uczenie maszynowe – zakres:

B. Łańcuch bloków (blockchain)

C. Analiza wideo

D. Analiza

Teraz wystarczy wycenić aplikację –  złożyć do Microsoft zamówienie – zrealizować projekt i witamy w nowym świecie  🙂 

31-10-2020 – Podpisywanie obrazów przez AI (Captcha)

ostatnio dzięki uprzejmości MR otrzymałem ciekawy link do nowej usługi Microsoft ” What’s that? Microsoft’s latest breakthrough, now in Azure AI, describes images as well as people do

“In the last five years,” Huang said, “we have achieved five major human parities: in speech recognition, in machine translation, in conversational question answering, in machine reading comprehension, and in 2020, in spite of COVID-19, we got the image captioning human parity.”

 

Postęp w słownym opisie obrazów jest olbrzymi. Narzędzie jest wprowadzane do aplikacji Office. Podejmuje się próby natychmiastowego opisywania obrazów rejestrowanych przez oko kamery. Daje to możliwość mówienia osobie niewidzącej, co znajduje się przed pacjentem!

 

Dla GDMMiA powstaje szansa na zautomatyzowanie przenoszenia np. map myśli lub algorytmów znajdujących się w plikach graficznych (np. jpg) ale także na filmach (np. w “stop klatce”

 

https://1gew6o3qn6vx9kp3s42ge0y1-wpengine.netdna-ssl.com/wp-content/uploads/prod/sites/3/2020/10/inclusive-disability-ai-systems-saqib-shaikh_1920x1080-5f86fd8c20ba1.jpg

Saqib Shaikh, a software engineering manager with Microsoft’s AI platform group in Redmond.

https://1gew6o3qn6vx9kp3s42ge0y1-wpengine.netdna-ssl.com/wp-content/uploads/prod/sites/3/2020/10/huang-xd_1920x1080-5f86fd2ff095d.jpg

źródło

Xuedong Huang

Dla mojego projektu sukcesem byłoby, aby te algorytmy na tym zdjęciu narysowane na z tyłu na tablicy znalazły się w wersji cyfrowej w formacie algorytmu. W ilu firmach brakuje takiego narzędzia w tworzeniu projektów!

AI – Google Translator do budowy Globalnej Mapy Algorytmów

Tłumacz Google

Budowanie Globalnej Dynamicznej Mapy Myśli i Algorytmów (GDMMiA) będzie wymagało jednego języka do tworzenia treści map. Może to być wymyślony język widoczny tylko dla komputerów lub np. język angielski.  Niezależnie od tego powinno się móc stworzyć inteligentny interfejs automatycznie tłumaczący wprowadzane treści na wszystkie języki świata. Wspaniałym wzorcem może być oparty na sztucznej inteligencji Tłumacz Google. Narzędzie cały czas się uczy coraz to nowych słów i związków frazeologicznych. Taki program powinien wejść w skład “silnika” GDMMiA.

Szczegóły AI w Tłumaczu Google opisano w artykule PC Format pt. Sztuczna inteligencja mocno poprawiła jakość Tłumacza Google

Aplikacja opiera się na sieciach neuronowych, paradygmatach bazujących na przepisywaniu oraz mechanizmu przetwarzania na urządzeniu, ponadto z nowością  jest implementacja tzw. architektury hybrydowej.

źródło – wyszukiwarka Bing (Is nationalism a logical reaction to globalization? – netivist)

Zbliżone rozwiązanie do mojego w zakresie tłumaczeń na wiele języków proponuje Piotr Michalak w wywiadzie udzielnym Philowi Koniecznemu pt.  Problemy dzisiejszego internetu chaos informacyjny Piotr Michalak Rozmowy Konieczne #22

Microsoft Translator

Tłumacz Microsoft jest częścią usługi poznawczej Azure Cognitive Services 

(“Co to są usługi Azure Cognitive Services? -Usługi Cognitive Services zapewniają każdemu deweloperowi dostęp do sztucznej inteligencji — niezależnie od posiadanej wiedzy z zakresu uczenia maszynowego. Wystarczy wywołanie interfejsu API, aby osadzić w aplikacji funkcje widzenia, słyszenia, mówienia, wyszukiwania, rozumienia i szybszego podejmowania decyzji.”)

Także Microsoft wprowadza tłumaczenie maszynowe Microsoft Translator (Translacja Maszyn Neuronowych+ True text +zmiana tekstu na mowę i mowy na tekst+ tłumaczenie mowy – dobry opis i demo procedur)) dostępne w pakiecie Office (70 języków – czyli mniej niż Tłumacz Google, pozostałe języki są tłumaczone metodą SMT) (zaznacz tekst – naciśnij prawym klawisz  – przetłumacz- wybierz język-enter)

Jak korzystać w Microsoft Translator w firmie.

Ciekawą opcją (starszą) jest statystyczne tłumaczenie maszynowe Bing Microsoft Translator  pojedynczych słów, który wykrywa język źródłowy i tłumaczy n żądany język

 

AI – rozpoznawanie mowy i obrazu to za mało!

Postęp technologiczny otwiera nam nowe możliwości rozwiązań, o których kilka lat temu nam się nie śniło. To tak jak wejść do korytarza, a w nim otwierają się kolejne drzwi ku naszym marzeniom. Jeśli nie będziemy się uczyć, nie zobaczymy nowych możliwości.

Gdy tworzyłem koncepcję Globalnej Dynamicznej Mapy Myśli i Algorytmów  (GDMMiA) miałem kilka problemów strategicznych, jak można przekształcić zmysły, myśli człowieka, wiedzę zapisaną w książkach, nośnikach cyfrowych, obrazach, filmach  na algorytmy. Sztuczna inteligencja (AI) potrzebuje algorytmów, do konstrukcji nowych rozwiązań technologicznych w oparciu o listy “to do”. Algorytm powstaje z myśli człowieka. Człowiek zaś ma kreatywne myślenie, ale oparte na swoim doświadczeniu i wiedzy, czyli danych napływających z otaczającego nas świata. Niezależnie od naszego myślenia maszyny komputerowe będą mogły tworzyć własne algorytmy, pod warunkiem dostarczenia im dużej ilości danych (big data). Przyzwyczailiśmy się do danych zapisanych w arkuszach kalkulacyjnych i treści pisanej. Jednak najbardziej “dano-chłonne” są obrazy, filmy, dźwięki. Tu jest skarbnica danych.

Jeżeli maszyny są w stanie wychwytywać komendy wydawane głosem podczas rozpoznawania mowy (jeden z pierwszych zajmujący się tym tematem to Kai-Fu Lee) oraz rozpoznawania prostych, statycznych obrazów (zajmuje się tym m. in. Google – Kuba Piwowar z Google – 2018 r ), to może z czasem będą w stanie same w stanie tworzyć algorytmy z danych dostarczanych im w formie audio (np. podcast), obrazów czy filmów.

źródło – wyszukiwarka Bing(Is nationalism a logical reaction to globalization? – netivist)

Wyobraźmy sobie, że filmujemy wykonywanie jakiejś czynności. Następnie komputer analizuje audio z obrazem i tworzy algorytm czynności znajdujących się na filmie. Może wychwyci więcej niż człowiek? Stworzy niekonwencjonalne rozwiązania, będzie świetnym narzędziem dydaktycznym, czy projektowym.

Dlatego traktuję obecne bania nad rozpoznawaniem mowy i dźwięku jako pionierskie abecadło sztucznej inteligencji (przedszkole AI). Czas na szkołę i studia :). Patrzmy za horyzont! (Look beyond the horizon).

(Voyagers | arise to see beyond the horizon of your dreams …)

Co z innymi zmysłami – dotykiem, smakiem, zapachem? To też może być algorytmem.

Wyobraźmy sobie cały przemysł kosmetyczny, kulinarny, medycynę wsparte o takie urządzenia.

Co lekarz ma wspólnego ze sztuczną inteligencją? Niedługo już nic, jak go zastąpi w ciągu najbliższych 15 lat 🙁

Trzeba znaleźć miejsce w medycynie dla AI i dla lekarza. Na początku będę współpracować, potem czynnik ludzki zejdzie na drugi plan.

Dlatego interesuje się w chwili obecnej uczeniem maszynowym, uczeniem głębokim i sieciami neuronowymi.. Podziwiam pasjonatów algorytmów, takich Vladimir Alekseichenko (oryginał nazwiska to chyba Владимир Алексейченко – czyli polska i rosyjska wymowa Władimir Aleksiejczenko) (podcaster i programista uczenia maszynowego oraz NLP – przetwarzanie języka naturalnego), ale liczę także na ich zainteresowanie w rozwijaniu sztucznej inteligencji (polecam polską stronę Sztuczna inteligencja) na bazie GDMMiA.

It is not a pipe dream!   🙂

JAGERS TRAUM hunter sits smoking pipe & dreaming of stag …

 

.

Epoka sztucznej inteligencji- Ewa Ewart-TVN24

W dniu 28.09.2024 w TVN24, w  cyklu “Ewa Ewart poleca” ukazał się pierwszy odcinek filmu “Epoka sztucznej inteligencji” (oryginalny tytuł to “In the age of AI”.) (Artificial intelligence)

Polecam do obejrzenia

Sztuczna inteligencja AI = SI) – zalety i zagrożenia (totalny nadzór nad społeczeństwem, zniknie około 50% zawodów w ciągu 15 lat (szczególnie umysłowych – np. analitycy), utrata miejsc pracy (np. w USA ok. 300 tys. kierowców ciężarówek), podział świata na dwa bloki – Chiny i USA.  Chiny obudziły się po przegranej w 2016 r mistrza gry GO  Ke Jie  z AlphaGo firmy Google) (podobno w GO jest więcej kombinacji strategicznych niż atomów we wszechświecie- gra jest dumą cywilizacji dalekiego wschodu)  z komputerem IBM Watson. Komputer jest silniejszy od człowieka. Władze Chin w 2017 r. ogłosiły, że chcą być do 2030 światowym liderem AI (nie naśladowcą!) Już działa rządowe wsparcie – w planie budowa miasta wielkości Chicago z transportem zarządzanym przez AI. Szeroko wdraża się np. rozpoznawanie twarzy, transport bez kierowców), już maja wielu firm AI z grupy tzw. Unicorn = warunkiem jest miliardowy dochód). Chiny przeskoczyły etap kart kredytowych – w sklepach płaci się “twarzą” (aplikacje rozpoznawania twarzy).

Chiny są największą bazą danych, a nią karmi się AI: “Dane to ropa, a Chiny są na tym polu Arabia Saudyjską”  KAI-FU LEE (Sinovation Venture) (w wieku 31 lat opracował program rozpoznawania mowy do sterowania komputerem). “Kilka tysięcy współpracujących ze sobą chińskich przedsiębiorców pokona każdego przedsiębiorcę na świecie”

W historii było tylko kilka istotnych wynalazków: maszyna parowa, elektryczność i komputer. Teraz będzie to AI.

AI w medycynie – uczenie maszynowe i uczenie głębokie (deep learning) w analizie zdjęć rentgenowskich jako profilaktyka raka piersi (W USA umiera na te chorobę około 40 tys. kobiet rocznie). Wywiady z pracownikami MIT z Bostonu w USA  (Massachusetts Institute of Technology Bostonie. Na MIT (Massachusetts Institute of Technology) pracuje Aleksandra Przegalińska – z  Akademii Leona Koźmińskiego –  z wywiadu Marcina Prokopa z TVN -“Człowiek przyszłości” – polecam). Program profilaktyki raka piersi poprzez głębokie uczenia maszynowego w MIT prowadzi z dr Connie Lee (?) m.in.  profesor Regina Barzilay

źródło źródło –“In the age of AI”.)

Sztuczna inteligencja karmiona algorytmami stworzonymi z big data

Rozwijająca się w ostatnim czasie w bardzo w szybkim tempie sztuczna inteligencja wymaga dostarczani jej dużej ilości algorytmów. Z czasem będzie możliwe szerokie stosowanie uczenia maszynowego, które te algorytmy będzie tworzyć samodzielnie. Zalążek takich programów zależy jednak od wiedzy twórców danych innowacji. To oni tworzą algorytm – czasem lepszy, czasem gorszy. Potem, owszem, można przeprowadzać komputerowe badania modelowe, ale badamy tylko koncepcję jednego zespołu. A co by było, gdyby mogli oni skorzystać z już zweryfikowanych algorytmów z innej części świata? Ilu błędów by uniknięto? Jakich pomysłów nie byłoby w burzach mózgów ich zespołów, a są w GMMiA ? Na następnym etapie baza algorytmów byłaby “pożywką” dla komputerów, które dzięki sztucznej inteligencji (w tym głębokiego i maszynowego uczenia) mogłaby tworzyć nowy, bardziej kreatywny algorytm, o którym ludziom się nawet nie śniło (tak jak rewelacyjny ruch nr 37 w grze GO podczas meczu Lee Sedol z komputerem Google –  AlphaGo).

Uważam, że koncepcja Globalnej Dynamicznej Mapy Myśli i Algorytmów (GDMMiA)  mogłaby się sprawdzić w tym procesie.

Mapy algorytmów  w  etapie wstępnym można tworzyć ręcznie (przez ogólnoświatową społeczność – zalążkiem ich byłyby mapy myśli), można też zaimportować pliki graficzne map myśli z dotychczasowych książek, publikacji internetowych ( potrzebny by był program konwertujący grafikę do map algorytmów – nie znalazłem nigdzie takiej aplikacji) – z nich powstaną listy “to do” dla prototypów wynalazków.

Problemem jest jednak jak przełożyć dotychczasową wiedzę tekstową na algorytmy. Myślę, że z pomocą może przyjść uczenie maszynowe pracujące na big data. Być może wyszukiwarki semantyczne mogłyby wchodzić w skład silnika takiej aplikacji. Narzędzie to po analizie tekstu, stworzy algorytm podsumowujący treść danej publikacji.  Algorytmu się nie oszuka!. Jeśli jest on taki sam jak w innej książce opisującej innymi słowami tę samą procedurę – od razu będzie widać, że autor książki nie wniósł nic nowego dla ludzkości (zobaczmy ile jest poradników sprzedających te same porady, ale tylko innymi słowami. Ile cennego czasu tracimy na czytanie tego samego pod innym tytułem – i to tego samego autora). Z książkami jest jak z choinką.  Jest algorytm ubrany w słowa, tak jak sosna ubrana w bąbki.

Choinkę możemy ubierać w różne bąbki, ale zawsze będzie to ta sama choinka.

 

Ponadto uczenie maszynowe pozwoliłoby na ciągłą, zautomatyzowaną (dynamiczną) aktualizację bazy, przy współistniejącej dotychczas formie werbalnej i graficznej przedstawiania swoich myśli (książki, strony www, grafiki, zdjęcia).

To jest zupełnie inny silnik niż Google!!

Prawdopodobnie nikt takiego nie ma!!.

To nie internauta w tym narzędziu przeszukuje bazy danych. On dostaje już gotowe zaktualizowane rozwiązania (wiedzę – ekspertyzę) na swoje zapytanie.  Zostaje mu jedynie jej przeanalizowanie i zaimplementowanie jej dla swoich potrzeb i podzielenie się zdobytą w ten sposób wiedzą nią z innymi (utopia  – czy potrzeba czasu). Rzetelność, stabilność systemu  i prawa autorskie mógłby zagwarantować blockchain.

Google daje nam cegły i cement (tylko informacje – WAT?) , mój silnik od razu gotowy dom (daje wiedzę eksperta – HOW!). Czyli bardziej zaawansowane narzędzie niż robione “ręcznie” WIKI-HOW.

Dlatego uważam, że w najbliższym czasie w realizacji GDMMiA najcenniejsze może być stworzenie konwertera grafiki na mapy myśli i algorytmów oraz stworzenie programu do uczenia maszynowego pozwalającego wyłuskać z tekstowych big data procedury do zapisania ich w algorytmach. Powstaną gotowe “cegiełki” do implementacji w projektowaniu nowych urządzeń. Może nastąpić gwałtowne przyspieszenie w rozwoju innowacji technologicznych.

Ktoś może zapytać, dlaczego dzielę się bezpłatnie pomysłami być może  wartymi miliardy dolarów. Po prostu nie mam kapitału i zespołu, który podążyłby za moją wizją. Może znajdą się ludzie z podobną wizją, których zainspirują moje pomysły i wprowadzą je w życie. Nikt nie jest samotną wyspą. Współpraca przynosi najlepsze rezultaty.

Czy Piotr Michalak ma podobny pomysł do GDMM i algorytmów?

Powyżej link do nagranego wywiadu na YouTube “Rewolucja informacyjna”

Piotr Michalak opublikował swój pomysł na rewolucję w wyszukiwaniu danych. Czy jego pomysł idzie w tym samym kierunku co mój pomysł dotyczący Globalnej Dynamicznej Mapy Myśli i Algorytmów oraz Web Pl 3.0. Może porównacie? Moim zdaniem projekt zmierza ścieżką edukacyjną (może być łatwo pokonany przez sztuczna inteligencję – w tym – głębokie uczenie), mój zaś idzie znacznie dalej w kierunku nowego typu elastycznej i ciągle aktualizowanej wyszukiwarki wiedzy generującej projektowe listy to do (nie tak jak Google, które szuka “tylko” informacji). Moje rozwiązanie daje możliwość stworzenia nowego globalnego pokolenia eksperckiego .

Z wywiadu można odnieść wrażenie, że niektórzy informatycy uważają starszych (po 50-tce) lekarzy za wykluczonych cyfrowo, którzy nie potrafią sobie poradzić z e-marketingiem, a przez to nie zarabiają na wiedzy.  Być może jest inna tego przyczyna. Obecnie jest tak wiele literatury fachowej (często bezpłatnej), że nie będzie zapotrzebowania na płatne informacje zbiorcze, które codziennie się deaktualizują. Przygotowanie dobrego opracowania problemu medycznego do druku może zając od kilku do kilkudziesięciu godzin. Motywacja społeczna raczej nie wystarczy, aby taką pracę wykonać. Osobiście poświęcam na trudny przypadek  minimum 10 godzin, bywa, że 30. Kolejną przeszkodą w takim projekcie jest szybko rozwijająca się sztuczna inteligencja. Być może algorytmy wyszukiwania w big data same przygotują takie raporty jak ma to miejsce w superkomputerze Watson IBM.

Co do wykluczenia cyfrowego starszych lekarzy mogę mówić za siebie. Kiedy nie było jeszcze w Polsce Internetu miałem już spółkę, która kontaktowała ze sobą sprzedających z kupującymi (Allegro powstało ponad 10 lat później, bo w 1999 r). Możliwe to było dzięki bazie danych na moim PC o dysku z pamięcią 20 MB 🙂 napisanej przeze mnie  w programie dBase. Niestety wykorzystanie poczty i telefonów spowodowało, że musiałem zarzucić projekt. Nie był to jednak koniec z cyfryzacją w medycynie. Gdy niektórzy z dzisiejszych informatycznych CEO szli do pierwszej klasy szkoły podstawowej  napisałem rozprawę doktorska na komputerze (wtedy większość prac pisana maszynie do pisania), korzystając z bazy w odpowiedniku dzisiejszego Excel zawierająca 12 tysięcy wyników badań. Jako  jeden z pierwszych w Polsce wykorzystałem komputerowy program statystyczny do opracowania wyników mojej rozprawy. Wykonanie tak olbrzymiej pracy, dzięki komputerom  zajęło mi dwa lata, gdy w tym czasie był to proces minim 4-5 letni.

Czy w Polsce nie ma lekarzy obejmujących kompleksowo problem pacjenta? Nie jest to prawdą. Mamy wprawdzie niewiele ośrodków chorób rzadkich, ale trzeba tylko wiedzieć o ich istnieniu. Rzeczywiście postęp medycyny i odgórne regulacje rozczłonkowały lekarzy na specjalistów w wąskich grupach wiedzy medycznej. W wielu przypadkach kodeks etyki lekarskiej nie pozwala udzielanie porad spoza swoje specjalizacji. Może to powodować zaszufladkowanie objawów chorego pod katem jednego specjalisty, gdy choroba ma lokalizację wielonarządową. W system NFZ trudno jest wówczas o rozszerzona diagnostykę. Jeśli lekarz ma obowiązek udzielić porady w ciągu 10-15 minut, nie ma możliwości w czasie takich przyjęć przeanalizować wszystkich opcji diagnostycznych.osobiści świadcząc usługę spersonalizowanej potrzebuję na takie podejście (włącznie z przeglądem piśmiennictwa naukowego)  minimum 10 godzin. Jeśli chciałoby się więcej takich lekarzy – to usługa diagnostyki trudnych przypadków powinna kosztować pacjenta minimum = 2 (pacjentów/godzinę) x150 zł x10 godzin = 3000 zł. Niestety niewielu pacjentów byłoby w stanie (nawet mentalnie – mimo, że wydadzą te pieniądze chodząc latami od specjalisty do specjalisty) zapłacić za taką usługę. NFZ płacąc około 30 zł za wizytę  pacjenta, chyba też nie będzie zainteresowany. Podobnie jest z dużymi, abonamentowymi spółkami medycznymi (liczy się ilość i obrót). Dlatego nie można mówić, że w Polsce nie ma lekarzy, którzy są stanie diagnozować kompleksowo. Wręcz przeciwnie jest wielu zdolnych i inteligentnych lekarzy. W Polsce natomiast nie ma tylu pacjentów, którzy są skłonni zapłacić godziwe wynagrodzenie za niestandardową pracę. Zostają więc tylko pasjonaci, którzy podejmują się tego trudnego zadania z symboliczne wynagrodzenie.

Niestety zawód lekarza nakłada na nas wiele ograniczeń etycznych (szczególnie w reklamie), dlatego też nie wykorzystałem programów typu Netmailer, Netsaler, które kupiłem już w 2011 r.

Następna uwaga do wywiadu. Czy wpisów lekarzy na blogach nikt nie czyta? Czy starszy lekarz nie ma pojęcia o socialmediach? Być może? Chyba, że liczba polubień mojego fanpage na Facebooku “Trudne przypadki medyczne – diagnostyka”  mówi o czymś innym.

W wywiadzie dla Phila Konicznego pokazano ciekawą formę finansowania  projektu – pewna forma crowdfunding ale poprzez blockchain – TOKENIZACJA (Ciekawe! Do rozważenia! przez potencjalnych inwestorów).

 Problemy dzisiejszego internetu chaos informacyjny Piotr Michalak Rozmowy Konieczne #22

 

1-11-2020 – Moje uwagi do w/w projektu ccFound.

Nie znam całości i szczegółów tego rozwiązania, dlatego oprę się tylko na moim wrażeniu z dostępnych mi informacji.

Autorzy projektu przez kilka tygodni nie znaleźli czasu na odpowiedź na moją propozycję wspólnej pracy nad tym rozwiązaniem, szkoda (może ich strata).

Nie będę się wypowiadał o komercyjnej dla inwestorów stronie rozwiązania opartej na tokenizacji. Interesuje mnie tylko rozwiązanie technologiczne

Podobne rozwiązanie funkcjonuje już w medycynie – diagnostyce trudnych przypadków chorobowych np. portal CrowdMed

Oto model zachęcający lekarzy do współpracy z portalem CrowdMed

Myślę, że powielenie takiego serwisu dla polskich pacjentów nie powinno dla mnie stanowić problemu.

Moje uwagi powstały dzięki inspiracji  MR (Pan po studiach informatycznych, który studiuje teraz medycynę – podziwiam otwartość na świat młodych ludzi).

Mentalnie projekt jest na etapie pierwszego dwudziestolecia XXI wieku. Opiera się na kombinacji Google (zawsze może być zbanowane, jeśli Google dostarczy swoje algorytmy, to nie będzie promował konkurencji za darmo), Quora (mieszanina społeczności i wolontariuszy – może zadziałać, ale to będzie tylko margines informacji, które dostarczy nowa technologia), Facebooka i Wikipedii (WIKI HOW).

Niestety automatyka procesów sztucznej inteligencji dostarcza już lepszych narzędzi do zdobywania wiedzy i to w zautomatyzowany sposób. Zaczyna dominować sztuczna inteligencja pod wieloma aspektami.

Dla przykładu proszę zauważyć dostarczanie przez Google z automatu najlepszych algorytmów rozwiązań, o które pyta czytelnik (oczywiście w uzupełnieniem w tradycyjny sposób o informacje. W ten sposób mamy ciągle aktualne rady (algorytmy), jakie możemy wyszukać w internecie. Nie trzeba za nic płacić, nie trzeba angażować do tego piszących na zamówienie artykułów ekspertów.  takie rozwiązanie może oczywiście spowodować niechęć ekspertów do publikowania swojej wiedzy w internecie, ale jest już za późno – Google już ma dużą bazę do udzielania porad i to w różnych językach dzięki Tłumaczowi Google.

Oto ta dwa przykłady (dzięki uprzejmości MR- to on przekierował moje myslenia na współpracę z AI)

Jak ugotować jak jajko?– – wyszukany najlepszy (wg Google algorytm) na szczycie pozycjonowania

Inny przykład wyszukiwania algorytmów i zmiany języka wyszukanych informacji

Zamiast artykułów na zamówienie Microsoft uznał, że programy oparte na  GPT-3 (licencja na wyłączność Open AI -Elon Musk – dla Microsoft) (typu Philospher) zrobią to lepiej, wykorzystując naturalny język człowieka oraz korzystając z wyszukanej wiedzy w Internecie. Podobno zwolniono około 80 redaktorów piszących artykuły naukowe dla Microsoft. Oto jak sztuczna inteligencja odpowiada na pytanie jak zmienić koło w samochodzie (dzięki uprzejmości MR).

Nie ma co się dziwić, że nikt nie robi tego co chce wykonać ccFound, robią coś na wyższym poziomie technologicznym.

Inna epoka, inne myślenie, inne narzędzie – chociaż cel jest ten ciągle sam – dostarczyć wszystkim ludziom wiedzę i mądrość działania.

 

 

Sztuczna inteligencja – Superkomputer Cato na Uniwersytecie Kardynała Stefana Wyszyńskiego

Właśnie uruchomiono na

Na Uniwersytecie Kardynała Stefana Wyszyńskiego w Warszawie, w Centrum Cyfrowej Nauki i Technologii UKSW (dyrektor-  prof. Marek Niezgódka – Dziekanowie Leśnym) uruchomiono superkomputer Cato. (IBM)

Ma on być wykorzystywany m.in. do badań z zakresu epidemiologii, energetyki, cyfrowej medycyny czy projektowania nowych materiałów.

“Dzięki superkomputerowi, obliczenia o wysokiej wydajności (HPC – High Performance Computing), będą rozszerzone o zadania sztucznej inteligencji (AI – Artificial Intelligence) i wysokowydajnej analizy danych (HPDA – High Performance Data Analytics). Cato umożliwia modelowanie i symulacje w oparciu o zbiory dużych danych.”

W medycynie:  “Wykorzystanie globalnych zasobów danych w sposób inteligentny do podejmowania decyzji diagnostycznych, a następnie sugestii terapeutycznych, jest dziś warunkiem koniecznym rozwoju medycyny” – ocenił prof. Niezgódka. Wyjaśnił, że dzięki metodom obliczeniowym można wypracowywać precyzyjne metody diagnostyczne dostosowane do danych konkretnego człowieka, ale wykorzystujące wiedzę w skali globalnej.”

Ponadto możliwe będzie projektowanie nowych materiałów (np. medycznych) i ich weryfikacja przy pomocy symulacji komputerowych.