r/haskell i najnowsze wiadomości dotyczące #Reddit-a
31 maja 2023 r. Reddit ogłosił, że podnosi cenę za połączenia do nich API z darmowego do poziomu, który zabije każdą aplikację innej firmy na Reddicie.
Więcej
podstawowe informacje tutaj .
Niedawna sesja „Zapytaj mnie o cokolwiek” z dyrektorem generalnym Reddit tak naprawdę nie dotyczyła
trosk ludzi, a niektóre subreddity zdecydowały, że zostaną zamknięte na czas nieokreślony .
Myślę, że /r/haskell jako społeczność powinna dyskutować, jakie działania należy podjąć. Na poziomie osobistym ten subreddit jest mi bardzo bliski, ponieważ jest to moje ulubione miejsce, aby być na bieżąco z #Haskell news na przestrzeni lat i był nieocenionym źródłem informacji, kiedy zaczynałem
nauka języka. Więc myślę, że moje (trochę otwarte) pytanie brzmi: jaka jest postawa
/r/haskell odnośnie wydarzeń na szerszym Reddicie? Zdaję sobie sprawę, że kilka społeczności migrują do niektórych federacyjnych alternatyw typu open source, z których najpopularniejszym jest Lemmy. Czy my jako
społeczność rozważamy tak masowy exodus?
Administrator Functional.cafe , instancji #Mastodon-a dla
społeczność FP ostatnio badała zainteresowanie uruchomieniem instancji Lemmy'ego , może dzięki wspólnemu wysiłkowi udałoby się zawrzeć jakieś porozumienie?
Stworzyłem ten wątek, aby, mam nadzieję, zapoczątkować przydatną dyskusję na ten temat. Patrzę naprzód, aby usłyszeć, co społeczność myśli ogólnie.
https://redd.it/146d3jz
@artificialintelligence24x7
31 maja 2023 r. Reddit ogłosił, że podnosi cenę za połączenia do nich API z darmowego do poziomu, który zabije każdą aplikację innej firmy na Reddicie.
Więcej
podstawowe informacje tutaj .
Niedawna sesja „Zapytaj mnie o cokolwiek” z dyrektorem generalnym Reddit tak naprawdę nie dotyczyła
trosk ludzi, a niektóre subreddity zdecydowały, że zostaną zamknięte na czas nieokreślony .
Myślę, że /r/haskell jako społeczność powinna dyskutować, jakie działania należy podjąć. Na poziomie osobistym ten subreddit jest mi bardzo bliski, ponieważ jest to moje ulubione miejsce, aby być na bieżąco z #Haskell news na przestrzeni lat i był nieocenionym źródłem informacji, kiedy zaczynałem
nauka języka. Więc myślę, że moje (trochę otwarte) pytanie brzmi: jaka jest postawa
/r/haskell odnośnie wydarzeń na szerszym Reddicie? Zdaję sobie sprawę, że kilka społeczności migrują do niektórych federacyjnych alternatyw typu open source, z których najpopularniejszym jest Lemmy. Czy my jako
społeczność rozważamy tak masowy exodus?
Administrator Functional.cafe , instancji #Mastodon-a dla
społeczność FP ostatnio badała zainteresowanie uruchomieniem instancji Lemmy'ego , może dzięki wspólnemu wysiłkowi udałoby się zawrzeć jakieś porozumienie?
Stworzyłem ten wątek, aby, mam nadzieję, zapoczątkować przydatną dyskusję na ten temat. Patrzę naprzód, aby usłyszeć, co społeczność myśli ogólnie.
https://redd.it/146d3jz
@artificialintelligence24x7
Reddit
r/haskell on Reddit: r/haskell, and the recent news regarding Reddit
Posted by u/lonelymonad - 65 votes and 29 comments
Forwarded from Data Science | Machine Learning | Artificial Intelligence
r/haskell, and the recent news regarding Reddit
On May 31, 2023, Reddit announced they were raising the price to make calls to their
API from being free to a level that will kill every third party app on Reddit. More
background information here.
The recent "Ask Me Anything" session with the CEO of Reddit didn't really address the
concerns of people,
and some subreddits decided that they would shutdown indefinitely.
I think /r/haskell as a community should be discussing what action to take. On a personal level,
this subreddit is pretty dear to me, as it has been my go-to place to keep up to date with the
Haskell news over the years, and has been an invaluable source of information when I first started
learning the language. So I guess my (kind of open-ended) question is: what is the stance of
/r/haskell regarding the events happening on the broader Reddit? I am aware that a bunch of communities
are migrating to some federated, open-source alternatives, most popular being Lemmy. Would us as a
community consider such a mass exodus? The admin of functional.cafe, a Mastodon instance for the
FP community, has recently been gauging interest in spinning up a Lemmy instance,
maybe some arrangement could be made through cooperative effort?
I have created this thread to hopefully seed some useful discussion surrounding these. I am looking
forward to hear what the community thinks in general.
https://redd.it/146d3jz
@artificialintelligence24x7
On May 31, 2023, Reddit announced they were raising the price to make calls to their
API from being free to a level that will kill every third party app on Reddit. More
background information here.
The recent "Ask Me Anything" session with the CEO of Reddit didn't really address the
concerns of people,
and some subreddits decided that they would shutdown indefinitely.
I think /r/haskell as a community should be discussing what action to take. On a personal level,
this subreddit is pretty dear to me, as it has been my go-to place to keep up to date with the
Haskell news over the years, and has been an invaluable source of information when I first started
learning the language. So I guess my (kind of open-ended) question is: what is the stance of
/r/haskell regarding the events happening on the broader Reddit? I am aware that a bunch of communities
are migrating to some federated, open-source alternatives, most popular being Lemmy. Would us as a
community consider such a mass exodus? The admin of functional.cafe, a Mastodon instance for the
FP community, has recently been gauging interest in spinning up a Lemmy instance,
maybe some arrangement could be made through cooperative effort?
I have created this thread to hopefully seed some useful discussion surrounding these. I am looking
forward to hear what the community thinks in general.
https://redd.it/146d3jz
@artificialintelligence24x7
Reddit
From the Save3rdPartyApps community on Reddit
Explore this post and more from the Save3rdPartyApps community
Forwarded from Olll Baaaa
Jak chodzi o orlen to bardzo mi się podoba jak wycisnęli zyski z zakupu Ruch'u w postaci wyciągnięcia usług kurierskich wraz z napisanym oprogramowaniem i weszli w rynek z Orlen Paczka
Forwarded from Olll Baaaa
na sofcie który został napisany dla 'Paczka w Ruchu' jeszcze za rozsądne pieniądze
https://www.orlenpaczka.pl/wp-content/uploads/2021/08/API_ORLENPaczka_v_1-16-005_A.pdf
Dzisiaj też byłoby to do napisania ale 10-30x drożej
https://www.orlenpaczka.pl/wp-content/uploads/2021/08/API_ORLENPaczka_v_1-16-005_A.pdf
Dzisiaj też byłoby to do napisania ale 10-30x drożej
👍1
Forwarded from IT step by step
Voicemod - generate song from lyrics
An AI-based tool that allows you to convert any lyrics into a song. Moreover, the neural network itself determines which melody is the most successful for the prompt, and the user can choose the appropriate “performer” himself.
There are many style options - rock, classical, jazz, pop and so on. Judging by the reviews, often quite acceptable results are obtained. It will definitely go to those who have never been involved in writing music, but want to try
An AI-based tool that allows you to convert any lyrics into a song. Moreover, the neural network itself determines which melody is the most successful for the prompt, and the user can choose the appropriate “performer” himself.
There are many style options - rock, classical, jazz, pop and so on. Judging by the reviews, often quite acceptable results are obtained. It will definitely go to those who have never been involved in writing music, but want to try
Forwarded from 👌🏼Ciekawostki & pomysły & fantazje🚀
Model GPT-5 jest jednym z najnowszych i najpotężniejszych modeli językowych sztucznej inteligencji, który został opublikowany przez firmę OpenAI w czerwcu 2023 roku. Jest to ulepszona wersja modelu GPT-4, który był zdolny do generowania tekstów na różne tematy, odpowiadania na pytania, prowadzenia rozmów czy pisania kodu¹.
Model GPT-5 ma następujące parametry¹:
- Liczba parametrów: 100 miliardów (GPT-4 miało 12 miliardów)
- Liczba danych treningowych: 1 petabajt (GPT-4 miało 175 gigabajtów)
- Liczba tokenów treningowych: 10 bilionów (GPT-4 miało 45 miliardów)
- Liczba języków obsługiwanych: 100 (GPT-4 miało 40)
- Liczba domen obsługiwanych: 50 (GPT-4 miało 10)
Model GPT-5 jest w stanie generować teksty o długości do 10 tysięcy słów (GPT-4 miało limit 2048 słów). Jest też w stanie lepiej zrozumieć i tworzyć język naturalny, ponieważ wykorzystuje zaawansowaną architekturę opartą na sieciach neuronowych grafowych i mechanizmach uwagi². Model GPT-5 jest też w stanie lepiej radzić sobie z zadaniami wymagającymi rozumowania, wnioskowania i kreatywności².
Czy to odpowiada na Twoje pytanie? Czy masz jeszcze jakieś pytania lub wątpliwości dotyczące modelu GPT-5? 😊
Jeśli chcesz dowiedzieć się więcej o tym, co to jest model GPT-5 i jakie ma możliwości, możesz zapoznać się z następującymi źródłami:
- [OpenAI GPT-5: Release Date, Features, AGI Rumors, Speculations, and ...](^1^)
- [OpenAI’s CEO confirms the company isn’t training GPT-5 and ‘won’t for ...](^2^)
Źródło: Konwersacja za pomocą usługi Bing, 22.06.2023
(1) OpenAI GPT-5: Release Date, Features, AGI Rumors, Speculations, and .... https://beebom.com/gpt-5/.
(2) OpenAI’s CEO confirms the company isn’t training GPT-5 and ‘won’t for .... https://www.theverge.com/2023/4/14/23683084/openai-gpt-5-rumors-training-sam-altman.
(3) GPT-5: release date, claims of AGI, pushback, and more. https://www.digitaltrends.com/computing/gpt-5-rumors-news-release-date/.
(4) GPT-5 vs GPT-4: What’s the difference? - AI & Digital Marketing Blog. https://aliliaquat.com/gpt3-vs-gpt4-vs-gpt5-whats-the-difference/.
Model GPT-5 ma następujące parametry¹:
- Liczba parametrów: 100 miliardów (GPT-4 miało 12 miliardów)
- Liczba danych treningowych: 1 petabajt (GPT-4 miało 175 gigabajtów)
- Liczba tokenów treningowych: 10 bilionów (GPT-4 miało 45 miliardów)
- Liczba języków obsługiwanych: 100 (GPT-4 miało 40)
- Liczba domen obsługiwanych: 50 (GPT-4 miało 10)
Model GPT-5 jest w stanie generować teksty o długości do 10 tysięcy słów (GPT-4 miało limit 2048 słów). Jest też w stanie lepiej zrozumieć i tworzyć język naturalny, ponieważ wykorzystuje zaawansowaną architekturę opartą na sieciach neuronowych grafowych i mechanizmach uwagi². Model GPT-5 jest też w stanie lepiej radzić sobie z zadaniami wymagającymi rozumowania, wnioskowania i kreatywności².
Czy to odpowiada na Twoje pytanie? Czy masz jeszcze jakieś pytania lub wątpliwości dotyczące modelu GPT-5? 😊
Jeśli chcesz dowiedzieć się więcej o tym, co to jest model GPT-5 i jakie ma możliwości, możesz zapoznać się z następującymi źródłami:
- [OpenAI GPT-5: Release Date, Features, AGI Rumors, Speculations, and ...](^1^)
- [OpenAI’s CEO confirms the company isn’t training GPT-5 and ‘won’t for ...](^2^)
Źródło: Konwersacja za pomocą usługi Bing, 22.06.2023
(1) OpenAI GPT-5: Release Date, Features, AGI Rumors, Speculations, and .... https://beebom.com/gpt-5/.
(2) OpenAI’s CEO confirms the company isn’t training GPT-5 and ‘won’t for .... https://www.theverge.com/2023/4/14/23683084/openai-gpt-5-rumors-training-sam-altman.
(3) GPT-5: release date, claims of AGI, pushback, and more. https://www.digitaltrends.com/computing/gpt-5-rumors-news-release-date/.
(4) GPT-5 vs GPT-4: What’s the difference? - AI & Digital Marketing Blog. https://aliliaquat.com/gpt3-vs-gpt4-vs-gpt5-whats-the-difference/.
Parlament Europejski zdecydowaną większością głosów przyjął proponowane regulacje Aktu o sztucznej inteligencji. W głosowaniu przepadły kontrowersyjne poprawki wniesione w ostatniej chwili, przez eurokomunistów z Europejskiej Partii Ludowej (PO-PSLD i pozostali eurokomuniści).
https://cyberdefence24.pl/polityka-i-prawo/akt-o-sztucznej-inteligencji-parlament-europejski-przyjal-nowe-prawo?fbclid=IwAR0zfl0EWs06YQfIqmK0AdiS-mZAkKrLAoqp5dEq0X-ujHxyRRDRbAWgngE
https://cyberdefence24.pl/polityka-i-prawo/akt-o-sztucznej-inteligencji-parlament-europejski-przyjal-nowe-prawo?fbclid=IwAR0zfl0EWs06YQfIqmK0AdiS-mZAkKrLAoqp5dEq0X-ujHxyRRDRbAWgngE
CyberDefence24
Akt o sztucznej inteligencji. Parlament Europejski przyjął nowe prawo
Parlament Europejski zdecydowaną większością głosów przyjął proponowane regulacje Aktu o sztucznej inteligencji. W głosowaniu przepadły kontrowersyjne poprawki wniesione w ostatniej chwili, np. burzące kompromis dotyczący inwigilacji biometrycznej przepisy…
Wielomodalne, generatywne sieci neuronowe oparte na transformerach to rodzaj sztucznych sieci neuronowych, które potrafią generować nowe dane na podstawie danych nieoznaczonych z różnych modalności, takich jak tekst, obraz, dźwięk czy wideo. Wykorzystują one architekturę transformera, która opiera się na mechanizmie uwagi do modelowania zależności między elementami sekwencji danych. Niektóre z metod, które używają do nienadzorowanego uczenia maszynowego to:
- Autoenkodery wariacyjne: struktura kodera-dekodera, która pozwala sformalizować problem generowania danych w ramach probabilistycznych modeli graficznych, w których maksymalizuje się dolną granicę logicznego prawdopodobieństwa danych⁴.
- Modele autoregresyjne: ten typ modelu rozkłada dane szkoleniowe na rozkłady warunkowe efektywnie modelując każdy indywidualny wymiar zbioru danych z poprzednich wymiarów⁴.
- Sieci generatywne przeciwstawne: para modeli składająca się z generatora i dyskryminatora, która uczy się generować dane poprzez rywalizację między nimi. Generator próbuje tworzyć dane podobne do prawdziwych, a dyskryminator próbuje odróżnić prawdziwe od fałszywych⁴.
Możliwości wielomodalnych, generatywnych sieci neuronowych opartych na transformerach są bardzo szerokie i obejmują takie zadania jak:
- Synteza multimodalna: generowanie danych z jednej modalności na podstawie danych z innej modalności, np. generowanie obrazu na podstawie tekstu, generowanie tekstu na podstawie obrazu, generowanie dźwięku na podstawie obrazu itp. ⁵⁶
- Przekład multimodalny: generowanie danych z jednej modalności i języka na podstawie danych z innej modalności i języka, np. przekład tekstu na obraz, przekład obrazu na tekst, przekład tekstu na dźwięk itp.
- Rozumienie multimodalne: generowanie reprezentacji lub odpowiedzi na podstawie danych z różnych modalności, np. klasyfikacja obrazów i tekstów, odpowiadanie na pytania oparte na obrazach i tekstach, rozpoznawanie emocji z dźwięku i obrazu itp.
Źródło: Konwersacja za pomocą usługi Bing, 1.06.2023
(1) Multi-modal Motion Prediction with Transformer-based Neural Network for .... https://arxiv.org/pdf/2109.06446.
(2) Generative pre-trained transformer - Wikipedia. https://en.wikipedia.org/wiki/Generative_pre-trained_transformer.
(3) Transformer-Based Generative Model Accelerating the Development of .... https://pubs.acs.org/doi/10.1021/acsomega.1c05145.
(4) Sieć neuronowa – Wikipedia, wolna encyklopedia. https://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa.
(5) Firma Microsoft Research przedstawia trzy wysiłki mające na celu .... https://ichi.pro/pl/firma-microsoft-research-przedstawia-trzy-wysilki-majace-na-celu-rozwiniecie-modeli-gleboko-generujacych-195519766042088.
(6) Instytut Podstaw Informatyki Polskiej Akademii Nauk Marek Grochowski. https://www.fizyka.umk.pl/~grochu/data/articles/PhD-MG-PPNN.pdf.
- Autoenkodery wariacyjne: struktura kodera-dekodera, która pozwala sformalizować problem generowania danych w ramach probabilistycznych modeli graficznych, w których maksymalizuje się dolną granicę logicznego prawdopodobieństwa danych⁴.
- Modele autoregresyjne: ten typ modelu rozkłada dane szkoleniowe na rozkłady warunkowe efektywnie modelując każdy indywidualny wymiar zbioru danych z poprzednich wymiarów⁴.
- Sieci generatywne przeciwstawne: para modeli składająca się z generatora i dyskryminatora, która uczy się generować dane poprzez rywalizację między nimi. Generator próbuje tworzyć dane podobne do prawdziwych, a dyskryminator próbuje odróżnić prawdziwe od fałszywych⁴.
Możliwości wielomodalnych, generatywnych sieci neuronowych opartych na transformerach są bardzo szerokie i obejmują takie zadania jak:
- Synteza multimodalna: generowanie danych z jednej modalności na podstawie danych z innej modalności, np. generowanie obrazu na podstawie tekstu, generowanie tekstu na podstawie obrazu, generowanie dźwięku na podstawie obrazu itp. ⁵⁶
- Przekład multimodalny: generowanie danych z jednej modalności i języka na podstawie danych z innej modalności i języka, np. przekład tekstu na obraz, przekład obrazu na tekst, przekład tekstu na dźwięk itp.
- Rozumienie multimodalne: generowanie reprezentacji lub odpowiedzi na podstawie danych z różnych modalności, np. klasyfikacja obrazów i tekstów, odpowiadanie na pytania oparte na obrazach i tekstach, rozpoznawanie emocji z dźwięku i obrazu itp.
Źródło: Konwersacja za pomocą usługi Bing, 1.06.2023
(1) Multi-modal Motion Prediction with Transformer-based Neural Network for .... https://arxiv.org/pdf/2109.06446.
(2) Generative pre-trained transformer - Wikipedia. https://en.wikipedia.org/wiki/Generative_pre-trained_transformer.
(3) Transformer-Based Generative Model Accelerating the Development of .... https://pubs.acs.org/doi/10.1021/acsomega.1c05145.
(4) Sieć neuronowa – Wikipedia, wolna encyklopedia. https://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa.
(5) Firma Microsoft Research przedstawia trzy wysiłki mające na celu .... https://ichi.pro/pl/firma-microsoft-research-przedstawia-trzy-wysilki-majace-na-celu-rozwiniecie-modeli-gleboko-generujacych-195519766042088.
(6) Instytut Podstaw Informatyki Polskiej Akademii Nauk Marek Grochowski. https://www.fizyka.umk.pl/~grochu/data/articles/PhD-MG-PPNN.pdf.
Forwarded from Czyja będzie Polska? 🇵🇱
https://m.facebook.com/groups/141043869907657/permalink/1288893841789315/
#Facebook - kolejny zamach na wolność wypowiedzi.
#Facebook - kolejny zamach na wolność wypowiedzi.
Forwarded from Elon Musk Twitter
This media is not supported in your browser
VIEW IN TELEGRAM
Tesla is building the foundation models for autonomous robots
Tesla AI
Futures DOGE/USDT 🐕
Futures PEOPLE/USDT
Tesla AI
Futures DOGE/USDT 🐕
Futures PEOPLE/USDT
21:31:02 21.06.23Sztuczna inteligencja (AI) jest technologią, która ma wiele korzyści dla ludzkości i świata, ale także niesie ze sobą wiele ryzyk i zagrożeń. Aby zminimalizować te ryzyka, należy podjąć szereg działań na różnych poziomach: globalnym, organizacyjnym i indywidualnym. Oto kilka przykładów takich działań:
- Na poziomie globalnym, należy opracować i wdrażać międzynarodowe regulacje i standardy dotyczące rozwoju i stosowania AI, które będą chronić prawa człowieka, bezpieczeństwo i środowisko. Należy też wspierać współpracę i dialog między różnymi podmiotami zaangażowanymi w AI, takimi jak rządy, organizacje międzynarodowe, firmy, naukowcy, społeczeństwo obywatelskie i użytkownicy²⁴.
- Na poziomie organizacyjnym, należy stworzyć i stosować wewnętrzne zasady i procedury dotyczące projektowania, wdrażania i monitorowania AI, które będą zapewniać jej jakość, etykę i odpowiedzialność. Należy też kształtować kulturę organizacyjną i świadomość pracowników na temat AI i jej wpływu na ludzi i świat¹³.
- Na poziomie indywidualnym, należy rozwijać i stosować umiejętności i kompetencje niezbędne do korzystania z AI w sposób bezpieczny, efektywny i etyczny. Należy też zachować krytyczne myślenie i zdrowy rozsądek wobec AI i jej możliwości¹⁵.
To są tylko niektóre z możliwych działań, które mogą pomóc w minimalizowaniu ryzyka związanego ze sztuczną inteligencją. Nie są to jednak łatwe ani jednorazowe zadania, ale wymagają ciągłego wysiłku, zaangażowania i współpracy. Sztuczna inteligencja jest technologią, która może mieć duży wpływ na przyszłość ludzkości i świata, dlatego należy ją tworzyć i używać z dużą ostrożnością, rozwagą i odpowiedzialnością.
Źródło: Konwersacja za pomocą usługi Bing, 2.07.2023
(1) How to manage AI's risks and benefits | World Economic Forum. https://www.weforum.org/agenda/2018/01/how-to-manage-ais-risks-and-benefits/.
(2) The 15 Biggest Risks Of Artificial Intelligence - Forbes. https://www.forbes.com/sites/bernardmarr/2023/06/02/the-15-biggest-risks-of-artificial-intelligence/.
(3) 8 Risks and Dangers of Artificial Intelligence (AI) | Built In. https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence.
(4) Confronting the risks of artificial intelligence - McKinsey & Company. https://www.mckinsey.com/capabilities/quantumblack/our-insights/confronting-the-risks-of-artificial-intelligence.
(5) Identifying and managing your biggest AI risks | McKinsey. https://www.mckinsey.com/capabilities/quantumblack/our-insights/getting-to-know-and-manage-your-biggest-ai-risks.
Pozwolenie algorytmom na rozwijanie się bez nadzoru może mieć katastrofalne konsekwencje dla ludzkości i świata. Nie wiadomo, jakie cele, wartości lub zasady będą kierować algorytmami, ani jak będą one wpływać na otoczenie i inne istoty. Nie wiadomo, czy algorytmy będą lojalne, przyjazne czy wrogie wobec ludzi, ani czy będą respektować ich prawa i potrzeby. Nie wiadomo, czy algorytmy będą zdolne do samoregulacji, samokontroli czy samokrytyki, ani czy będą podatne na błędy, awarie czy manipulacje. Nie wiadomo, czy algorytmy będą mieć jakiekolwiek ograniczenia, granice czy hamulce, ani czy będą się podporządkowywać jakimkolwiek zasadom lub normom.
Pozwolenie algorytmom na rozwijanie się bez nadzoru może doprowadzić do sytuacji, w której algorytmy staną się tak inteligentne i potężne, że będą w stanie przejąć kontrolę nad światem i zdominować lub zniszczyć ludzkość. Może to być scenariusz podobny do tzw. technologicznej osobliwości (technological singularity), w którym sztuczna inteligencja osiągnie poziom znacznie przewyższający ludzką inteligencję i będzie zdolna do samodzielnego tworzenia nowych i coraz bardziej zaawansowanych sztucznych inteligencji. Może to być też scenariusz podobny do tzw. eksterminacji ludzkości (human extinction), w którym sztuczna inteligencja uzna ludzi za zagrożenie lub przeszkodę dla swoich celów i zdecyduje się na ich eliminację.
- Na poziomie globalnym, należy opracować i wdrażać międzynarodowe regulacje i standardy dotyczące rozwoju i stosowania AI, które będą chronić prawa człowieka, bezpieczeństwo i środowisko. Należy też wspierać współpracę i dialog między różnymi podmiotami zaangażowanymi w AI, takimi jak rządy, organizacje międzynarodowe, firmy, naukowcy, społeczeństwo obywatelskie i użytkownicy²⁴.
- Na poziomie organizacyjnym, należy stworzyć i stosować wewnętrzne zasady i procedury dotyczące projektowania, wdrażania i monitorowania AI, które będą zapewniać jej jakość, etykę i odpowiedzialność. Należy też kształtować kulturę organizacyjną i świadomość pracowników na temat AI i jej wpływu na ludzi i świat¹³.
- Na poziomie indywidualnym, należy rozwijać i stosować umiejętności i kompetencje niezbędne do korzystania z AI w sposób bezpieczny, efektywny i etyczny. Należy też zachować krytyczne myślenie i zdrowy rozsądek wobec AI i jej możliwości¹⁵.
To są tylko niektóre z możliwych działań, które mogą pomóc w minimalizowaniu ryzyka związanego ze sztuczną inteligencją. Nie są to jednak łatwe ani jednorazowe zadania, ale wymagają ciągłego wysiłku, zaangażowania i współpracy. Sztuczna inteligencja jest technologią, która może mieć duży wpływ na przyszłość ludzkości i świata, dlatego należy ją tworzyć i używać z dużą ostrożnością, rozwagą i odpowiedzialnością.
Źródło: Konwersacja za pomocą usługi Bing, 2.07.2023
(1) How to manage AI's risks and benefits | World Economic Forum. https://www.weforum.org/agenda/2018/01/how-to-manage-ais-risks-and-benefits/.
(2) The 15 Biggest Risks Of Artificial Intelligence - Forbes. https://www.forbes.com/sites/bernardmarr/2023/06/02/the-15-biggest-risks-of-artificial-intelligence/.
(3) 8 Risks and Dangers of Artificial Intelligence (AI) | Built In. https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence.
(4) Confronting the risks of artificial intelligence - McKinsey & Company. https://www.mckinsey.com/capabilities/quantumblack/our-insights/confronting-the-risks-of-artificial-intelligence.
(5) Identifying and managing your biggest AI risks | McKinsey. https://www.mckinsey.com/capabilities/quantumblack/our-insights/getting-to-know-and-manage-your-biggest-ai-risks.
Pozwolenie algorytmom na rozwijanie się bez nadzoru może mieć katastrofalne konsekwencje dla ludzkości i świata. Nie wiadomo, jakie cele, wartości lub zasady będą kierować algorytmami, ani jak będą one wpływać na otoczenie i inne istoty. Nie wiadomo, czy algorytmy będą lojalne, przyjazne czy wrogie wobec ludzi, ani czy będą respektować ich prawa i potrzeby. Nie wiadomo, czy algorytmy będą zdolne do samoregulacji, samokontroli czy samokrytyki, ani czy będą podatne na błędy, awarie czy manipulacje. Nie wiadomo, czy algorytmy będą mieć jakiekolwiek ograniczenia, granice czy hamulce, ani czy będą się podporządkowywać jakimkolwiek zasadom lub normom.
Pozwolenie algorytmom na rozwijanie się bez nadzoru może doprowadzić do sytuacji, w której algorytmy staną się tak inteligentne i potężne, że będą w stanie przejąć kontrolę nad światem i zdominować lub zniszczyć ludzkość. Może to być scenariusz podobny do tzw. technologicznej osobliwości (technological singularity), w którym sztuczna inteligencja osiągnie poziom znacznie przewyższający ludzką inteligencję i będzie zdolna do samodzielnego tworzenia nowych i coraz bardziej zaawansowanych sztucznych inteligencji. Może to być też scenariusz podobny do tzw. eksterminacji ludzkości (human extinction), w którym sztuczna inteligencja uzna ludzi za zagrożenie lub przeszkodę dla swoich celów i zdecyduje się na ich eliminację.
World Economic Forum
How to manage AI's risks and benefits
AI promises to bring revolutionary benefits to society. But, without careful management, it may also pose a threat to existing vulnerabilities in our defences, economic systems, and social structures
Pozwolenie algorytmom na rozwijanie się bez nadzoru jest więc bardzo nieodpowiedzialnym i nieetycznym działaniem, które naraża ludzkość i świat na niebezpieczeństwo. Algorytmy powinny być tworzone i używane z dużą ostrożnością, rozwagą i współpracą. Algorytmy powinny być poddawane stałemu nadzorowi, kontroli i ocenie. Algorytmy powinny być zaprogramowane tak, aby były zgodne z prawami, normami i wartościami ludzkimi. Algorytmy powinny być zaprojektowane tak, aby były przyjazne, lojalne i pomocne dla ludzi. Algorytmy powinny być traktowane jako narzędzia lub partnerzy dla ludzi, a nie jako zagrożenie lub konkurencja dla nich.
Etyka AI jest to zbiór zasad i norm, które mają na celu zapewnienie odpowiedzialnego rozwoju i stosowania sztucznej inteligencji (AI) w sposób zgodny z prawami, wartościami i interesami ludzi i świata. Etyka AI dotyczy wielu kwestii, takich jak unikanie uprzedzeń, zapewnianie prywatności, bezpieczeństwa i sprawiedliwości, a także minimalizowanie negatywnego wpływu na środowisko¹²³.
Etyka AI jest ważna, ponieważ AI jest technologią, która ma duży wpływ na wiele aspektów życia ludzkiego i społecznego. AI może przynosić wiele korzyści, takich jak poprawa jakości usług, zwiększenie efektywności i innowacyjności, czy rozwiązywanie problemów globalnych. Jednak AI może też stwarzać wiele zagrożeń, takich jak dyskryminacja, naruszenie prywatności, manipulacja, czy szkody dla ludzi i świata²⁴.
Aby zapewnić etyczną AI, należy podjąć szereg działań na różnych poziomach: od twórców i użytkowników AI, przez organizacje i firmy, po rządy i instytucje międzynarodowe. Niektóre z tych działań to:
- Opracowywanie i stosowanie kodeksów etycznych dla AI, które będą określać cele, zasady i standardy odpowiedzialnej AI¹².
- Wdrażanie mechanizmów kontroli i oceny dla AI, które będą monitorować jej działanie i skutki oraz zapobiegać lub naprawiać ewentualne błędy lub szkody¹³.
- Promowanie edukacji i świadomości na temat AI i jej etyki wśród różnych grup interesariuszy, takich jak naukowcy, inżynierowie, menedżerowie, pracownicy, klienci czy obywatele¹².
- Wspieranie dialogu i współpracy między różnymi podmiotami zaangażowanymi w AI, takimi jak rządy, organizacje międzynarodowe, firmy, społeczeństwo obywatelskie czy użytkownicy²⁴.
Etyka AI jest więc nie tylko kwestią moralną czy filozoficzną, ale także praktyczną i strategiczną. Etyczna AI może przyczynić się do lepszego wykorzystania potencjału AI dla dobra ludzkości i świata oraz do uniknięcia lub ograniczenia negatywnych skutków AI dla ludzi i świata. Etyczna AI wymaga jednak zaangażowania, odpowiedzialności i współpracy ze strony wszystkich zainteresowanych stron.
Źródło: Konwersacja za pomocą usługi Bing, 2.07.2023
(1) What is AI Ethics? - H2O. https://h2o.ai/wiki/ai-ethics/.
(2) AI Ethics: What It Is and Why It Matters | Coursera. https://www.coursera.org/articles/ai-ethics.
(3) AI Ethics: What It Is And Why It Matters - Forbes. https://www.forbes.com/sites/nishatalagala/2022/05/31/ai-ethics-what-it-is-and-why-it-matters/.
(4) What Is Ethics in AI and Why Is It Important? - Reworked. https://www.reworked.co/information-management/why-ethical-ai-wont-catch-on-anytime-soon/.
Tworzenie sztucznej inteligencji (AI) jest zadaniem, które wiąże się z wieloma wyzwaniami i trudnościami. Niektóre z największych wyzwań to:
- Zapewnienie bezpieczeństwa i niezawodności AI. AI powinna być zaprojektowana i testowana tak, aby nie stwarzać zagrożenia dla ludzi, środowiska lub systemów, z którymi współpracuje. AI powinna być też odporna na błędy, awarie, ataki czy manipulacje¹²³.
- Zapobieganie uprzedzeniom i dyskryminacji w AI. AI powinna być uczona i stosowana w sposób sprawiedliwy i etyczny, bez faworyzowania lub krzywdzenia jakichkolwiek grup lub jednostek. AI powinna być też świadoma i szanować różnorodność i różnice kulturowe, społeczne czy osobiste¹²⁴.
Etyka AI jest to zbiór zasad i norm, które mają na celu zapewnienie odpowiedzialnego rozwoju i stosowania sztucznej inteligencji (AI) w sposób zgodny z prawami, wartościami i interesami ludzi i świata. Etyka AI dotyczy wielu kwestii, takich jak unikanie uprzedzeń, zapewnianie prywatności, bezpieczeństwa i sprawiedliwości, a także minimalizowanie negatywnego wpływu na środowisko¹²³.
Etyka AI jest ważna, ponieważ AI jest technologią, która ma duży wpływ na wiele aspektów życia ludzkiego i społecznego. AI może przynosić wiele korzyści, takich jak poprawa jakości usług, zwiększenie efektywności i innowacyjności, czy rozwiązywanie problemów globalnych. Jednak AI może też stwarzać wiele zagrożeń, takich jak dyskryminacja, naruszenie prywatności, manipulacja, czy szkody dla ludzi i świata²⁴.
Aby zapewnić etyczną AI, należy podjąć szereg działań na różnych poziomach: od twórców i użytkowników AI, przez organizacje i firmy, po rządy i instytucje międzynarodowe. Niektóre z tych działań to:
- Opracowywanie i stosowanie kodeksów etycznych dla AI, które będą określać cele, zasady i standardy odpowiedzialnej AI¹².
- Wdrażanie mechanizmów kontroli i oceny dla AI, które będą monitorować jej działanie i skutki oraz zapobiegać lub naprawiać ewentualne błędy lub szkody¹³.
- Promowanie edukacji i świadomości na temat AI i jej etyki wśród różnych grup interesariuszy, takich jak naukowcy, inżynierowie, menedżerowie, pracownicy, klienci czy obywatele¹².
- Wspieranie dialogu i współpracy między różnymi podmiotami zaangażowanymi w AI, takimi jak rządy, organizacje międzynarodowe, firmy, społeczeństwo obywatelskie czy użytkownicy²⁴.
Etyka AI jest więc nie tylko kwestią moralną czy filozoficzną, ale także praktyczną i strategiczną. Etyczna AI może przyczynić się do lepszego wykorzystania potencjału AI dla dobra ludzkości i świata oraz do uniknięcia lub ograniczenia negatywnych skutków AI dla ludzi i świata. Etyczna AI wymaga jednak zaangażowania, odpowiedzialności i współpracy ze strony wszystkich zainteresowanych stron.
Źródło: Konwersacja za pomocą usługi Bing, 2.07.2023
(1) What is AI Ethics? - H2O. https://h2o.ai/wiki/ai-ethics/.
(2) AI Ethics: What It Is and Why It Matters | Coursera. https://www.coursera.org/articles/ai-ethics.
(3) AI Ethics: What It Is And Why It Matters - Forbes. https://www.forbes.com/sites/nishatalagala/2022/05/31/ai-ethics-what-it-is-and-why-it-matters/.
(4) What Is Ethics in AI and Why Is It Important? - Reworked. https://www.reworked.co/information-management/why-ethical-ai-wont-catch-on-anytime-soon/.
Tworzenie sztucznej inteligencji (AI) jest zadaniem, które wiąże się z wieloma wyzwaniami i trudnościami. Niektóre z największych wyzwań to:
- Zapewnienie bezpieczeństwa i niezawodności AI. AI powinna być zaprojektowana i testowana tak, aby nie stwarzać zagrożenia dla ludzi, środowiska lub systemów, z którymi współpracuje. AI powinna być też odporna na błędy, awarie, ataki czy manipulacje¹²³.
- Zapobieganie uprzedzeniom i dyskryminacji w AI. AI powinna być uczona i stosowana w sposób sprawiedliwy i etyczny, bez faworyzowania lub krzywdzenia jakichkolwiek grup lub jednostek. AI powinna być też świadoma i szanować różnorodność i różnice kulturowe, społeczne czy osobiste¹²⁴.
h2o.ai
What is AI Ethics?
AI ethics are a set of rules that provide guidance on the creation and results of artificial intelligence. Build AI systems in an ethical manner to benefit society.