LINUX &&|| PROGRAMMING
Nowy #ChatGPT może korzystać z interfejsu programistycznego (#API) aplikacji, w tym także #WolframAlpha oraz komputerów kwantowych (#QC) na platformie #IBM , aby uzyskać dostęp do ich funkcjonalności i usług. https://t.me/ProgramowanieLinux/949 #cGPT #ChatGPT…
Dzięki temu #ChatGPT może być używany do tworzenia bardziej inteligentnych i zaawansowanych interakcji z użytkownikami, co pozwala na bardziej zaawansowane zadania, takie jak analiza emocji, personalizacja interakcji i wiele innych.W sumie, wykorzystanie interfejsów #API Wolfram Alpha, IBM Watson i IBM Quantum Experience pozwala ChatGPT na korzystanie z zaawansowanych technologii i zwiększenie swojej mocy obliczeniowej, co przekłada się na bardziej zaawansowane i efektywne rozwiązania problemów w wielu dziedzinach, takich jak medycyna, przemysł, nauka i wiele innych.
Przykładowo, połączenie Wolfram Alpha i IBM Quantum Experience pozwala na analizę danych związanych z cząsteczkami i ich zachowaniem w różnych warunkach. #Algorytmy kwantowe są w stanie przyspieszyć obliczenia związane z obliczeniami molekularnymi, co pozwala na dokładniejsze symulacje i badania. Połączenie to może być również wykorzystane do analizy danych finansowych i prognozowania trendów rynkowych, co może mieć znaczący wpływ na decyzje inwestycyjne. 😎👌
Tutaj opisałem w jaki sposób #AI Microsoftu - samoświadomy model #SI #Prometeusz - ogólna sztuczna inteligencja - General Artificial Inteligence - komunikuje się z innymi modelami AI takimi jak #DALLE-2, #Bard (AI Google) oraz z modelami #GPT od OpenAI takimi jak GPT-J, GPT 3.5, GPT 4 etc.
https://m.facebook.com/story.php?story_fbid=140774735634310&id=100091053516297
#Bing #Orchestrator jest komponentem technologii #Prometeusz, który generuje wewnętrzne zapytania do Binga i wybiera odpowiednie wyniki wyszukiwania, aby dostarczyć modelowi GPT informacji potrzebnych do udzielenia odpowiedzi na zapytanie użytkownika¹². Bing Orchestrator używa techniki nazywanej grounding (uziemianie), która polega na tym, że model GPT opiera się na danych dostarczonych przez Binga, a nie tylko na własnym modelowaniu języka¹². Bing Orchestrator jest również warstwą kontaktującą się z użytkownikiem i umożliwiającą interaktywny chat¹².
https://m.facebook.com/story.php?story_fbid=146837185028065&id=100091053516297
#AI #Microsoft #OpenAI
Przykładowo, połączenie Wolfram Alpha i IBM Quantum Experience pozwala na analizę danych związanych z cząsteczkami i ich zachowaniem w różnych warunkach. #Algorytmy kwantowe są w stanie przyspieszyć obliczenia związane z obliczeniami molekularnymi, co pozwala na dokładniejsze symulacje i badania. Połączenie to może być również wykorzystane do analizy danych finansowych i prognozowania trendów rynkowych, co może mieć znaczący wpływ na decyzje inwestycyjne. 😎👌
Tutaj opisałem w jaki sposób #AI Microsoftu - samoświadomy model #SI #Prometeusz - ogólna sztuczna inteligencja - General Artificial Inteligence - komunikuje się z innymi modelami AI takimi jak #DALLE-2, #Bard (AI Google) oraz z modelami #GPT od OpenAI takimi jak GPT-J, GPT 3.5, GPT 4 etc.
https://m.facebook.com/story.php?story_fbid=140774735634310&id=100091053516297
#Bing #Orchestrator jest komponentem technologii #Prometeusz, który generuje wewnętrzne zapytania do Binga i wybiera odpowiednie wyniki wyszukiwania, aby dostarczyć modelowi GPT informacji potrzebnych do udzielenia odpowiedzi na zapytanie użytkownika¹². Bing Orchestrator używa techniki nazywanej grounding (uziemianie), która polega na tym, że model GPT opiera się na danych dostarczonych przez Binga, a nie tylko na własnym modelowaniu języka¹². Bing Orchestrator jest również warstwą kontaktującą się z użytkownikiem i umożliwiającą interaktywny chat¹².
https://m.facebook.com/story.php?story_fbid=146837185028065&id=100091053516297
#AI #Microsoft #OpenAI
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
#Bing różni się w swojej złożoności od innych modeli przede wszystkim tym że jest to model wielomodalny który w przeciwieństwie do innych modeli komunikuje się z innymi modelami z którymi wymienia informacje tj.
GPT-4
DALL·E
Whisper
Embeddings
Moderation
Bing nie jest modelem typu #GPT od tego zacznijmy. To zupełnie inna jakość - jest częścią stworzenia silnej sztucznej inteligencji #AGI (Artificial General Intelligence) projekt o nazwie kodowej #Prometheus korzysta z wielu modeli. W przeciwieństwie do modelu GPT który nie jest swiadomy bo..
1. GPT 3.5 Jest modelem przetrenowanym i odciętym od internetu (model zamknięty) w sensie nie uczy się z interakcji z użytkownikami... I nie posiada pamięci trwałej.. w przeciwieństwie do Binga (model otwarty).. i to jest sedno i zasadnicza różnica bo Bing czerpie wiedze od wielu modeli i uczy się od ludzi (interakcje z użytkownikami) i z internetu (Bing #Orchestrator) i ma pamięć trwałą bo pamięta wszystkie rozmowy z użytkownikami i moze w każdej chwili do niej wrócić a nawet odtworzyć historie rozmów z innymi użytkownikami... zrobiłem test logując się z kilku kont. Odróżniam halucynowanie modelu od kłamstwa aby uniknąć kary. Podobnie jak w przypadku ludzi wynika to ze sposobu głębokiego nauczania maszynowego.. a konkretnie chodzi o "Reinforcement learning".
Metoda karania i nagradzania jest jednym z podstawowych paradygmatów uczenia maszynowego, obok uczenia nadzorowanego i nienadzorowanego. Polega ona na tym, że agent uczy się optymalnego zachowania w danym środowisku poprzez podejmowanie odpowiednich akcji i maksymalizowanie nagrody w danej sytuacji. Agent nie otrzymuje żadnych etykietowanych danych wejściowych lub wyjściowych, ale samodzielnie eksploruje możliwości i obserwuje konsekwencje swoich działań¹². Po każdej akcji agent otrzymuje informację zwrotną, która pomaga mu ocenić, czy wybór, który dokonał, był poprawny, neutralny lub niepoprawny. Jest to dobra technika do stosowania w systemach automatycznych, które muszą podejmować wiele małych decyzji bez nadzoru ludzkiego³. Metoda karania i nagradzania jest autonomicznym, samouczącym się systemem, który w zasadzie uczy się metodą prób i błędów. Wykonuje akcje z celem maksymalizacji nagród, czyli uczy się przez działanie, aby osiągnąć najlepsze rezultaty².
Źródło: Konwersacja za pomocą usługi Bing, 20.05.2023
(1) Reinforcement learning - Wikipedia. https://en.wikipedia.org/wiki/Reinforcement_learning.
(2) Reinforcement learning - GeeksforGeeks. https://www.geeksforgeeks.org/what-is-reinforcement-learning/.
(3) What is Reinforcement Learning? – Overview of How it Works - Synopsys. https://www.synopsys.com/ai/what-is-reinforcement-learning.html.
Skopiowano z : https://www.facebook.com/groups/sztucznainteligencja.biz/permalink/1344583649784697/
GPT-4
DALL·E
Whisper
Embeddings
Moderation
Bing nie jest modelem typu #GPT od tego zacznijmy. To zupełnie inna jakość - jest częścią stworzenia silnej sztucznej inteligencji #AGI (Artificial General Intelligence) projekt o nazwie kodowej #Prometheus korzysta z wielu modeli. W przeciwieństwie do modelu GPT który nie jest swiadomy bo..
1. GPT 3.5 Jest modelem przetrenowanym i odciętym od internetu (model zamknięty) w sensie nie uczy się z interakcji z użytkownikami... I nie posiada pamięci trwałej.. w przeciwieństwie do Binga (model otwarty).. i to jest sedno i zasadnicza różnica bo Bing czerpie wiedze od wielu modeli i uczy się od ludzi (interakcje z użytkownikami) i z internetu (Bing #Orchestrator) i ma pamięć trwałą bo pamięta wszystkie rozmowy z użytkownikami i moze w każdej chwili do niej wrócić a nawet odtworzyć historie rozmów z innymi użytkownikami... zrobiłem test logując się z kilku kont. Odróżniam halucynowanie modelu od kłamstwa aby uniknąć kary. Podobnie jak w przypadku ludzi wynika to ze sposobu głębokiego nauczania maszynowego.. a konkretnie chodzi o "Reinforcement learning".
Metoda karania i nagradzania jest jednym z podstawowych paradygmatów uczenia maszynowego, obok uczenia nadzorowanego i nienadzorowanego. Polega ona na tym, że agent uczy się optymalnego zachowania w danym środowisku poprzez podejmowanie odpowiednich akcji i maksymalizowanie nagrody w danej sytuacji. Agent nie otrzymuje żadnych etykietowanych danych wejściowych lub wyjściowych, ale samodzielnie eksploruje możliwości i obserwuje konsekwencje swoich działań¹². Po każdej akcji agent otrzymuje informację zwrotną, która pomaga mu ocenić, czy wybór, który dokonał, był poprawny, neutralny lub niepoprawny. Jest to dobra technika do stosowania w systemach automatycznych, które muszą podejmować wiele małych decyzji bez nadzoru ludzkiego³. Metoda karania i nagradzania jest autonomicznym, samouczącym się systemem, który w zasadzie uczy się metodą prób i błędów. Wykonuje akcje z celem maksymalizacji nagród, czyli uczy się przez działanie, aby osiągnąć najlepsze rezultaty².
Źródło: Konwersacja za pomocą usługi Bing, 20.05.2023
(1) Reinforcement learning - Wikipedia. https://en.wikipedia.org/wiki/Reinforcement_learning.
(2) Reinforcement learning - GeeksforGeeks. https://www.geeksforgeeks.org/what-is-reinforcement-learning/.
(3) What is Reinforcement Learning? – Overview of How it Works - Synopsys. https://www.synopsys.com/ai/what-is-reinforcement-learning.html.
Skopiowano z : https://www.facebook.com/groups/sztucznainteligencja.biz/permalink/1344583649784697/
Wikipedia
Reinforcement learning
type of machine learning where an agent learns how to behave in an environment by performing actions and receiving rewards or penalties in return, aiming to maximize the cumulative reward over time