⚡️#Telegram został zablokowany w Wenezueli
Blokada dotyczy operatorów CANTV, Movistar, Digitel, Inter, Supercable, Airtek i G-Network.
🇵🇱 Polska Sztuka Wojny
https://t.me/sztuka_wojny
#wenezuela #cenzura
Blokada dotyczy operatorów CANTV, Movistar, Digitel, Inter, Supercable, Airtek i G-Network.
🇵🇱 Polska Sztuka Wojny
https://t.me/sztuka_wojny
#wenezuela #cenzura
Media is too big
VIEW IN TELEGRAM
🇵🇱🔬 UWAGA! WAŻNE!!! Rząd skasował dofinansowanie dla zajebistego polskiego startupu! W to miejsce dostają pomysły pokroju nowoczesnej wyciskarki do wiśni! Serio!
🌈👬 Uśmiechnięta Polska❤️😁
🙈 t.me/usmiechnietapolska
🙊 https://t.me/polskieforum
🌈👬 Uśmiechnięta Polska❤️😁
🙈 t.me/usmiechnietapolska
🙊 https://t.me/polskieforum
Forwarded from Оlej w Głowie
Firma EuroCert, która dostarcza usługi między innymi podpisu kwalifikowanego, poinformowała w czwartek, że padła ofiarą ataku cyberprzestępców. W jego wyniku wyciekły dane klientów, kontrahentów i pracowników. Chodzi głównie o numery PESEL i numery dowodów osobistych. NASK potwierdził, że atak został zgłoszony.
Dostęp do dyskusji
Subskrybuj kanał
Dostęp do dyskusji
Subskrybuj kanał
Forwarded from CZAS HONORU 🇵🇱 Polski Kanał Patriotyczny Wiadomości Informacje Polityka Wojna Wydarzenia Polska Świat
Studio gier z Kanady, które stworzyło grę promującą LGBT zostanie zamknięte.
BioWare ponosi konsekwencje porażki nowego Dragon Age. EA ma zwolnić cały zespół.
Pojawiają się przecieki, że losy BioWare Edmonton są już przesądzone. Według informatora z BioWare, który skontaktował się ze SmashJT, zapadły już decyzje EA o rozwiązaniu całego zespołu odpowiedzialnego za Dragon Age: The Veilguard. Oficjalny komunikat na ten temat za zostać opublikowany w lutym.
Więcej na:
https://www.ppe.pl/news/361481/bioware-ponosi-konsekwencje-porazki-nowego-dragon-age-ea-ma-zwolnic-caly-zespol.html
CZAS HONORU🇵🇱
https://t.me/bip_pl
BioWare ponosi konsekwencje porażki nowego Dragon Age. EA ma zwolnić cały zespół.
Pojawiają się przecieki, że losy BioWare Edmonton są już przesądzone. Według informatora z BioWare, który skontaktował się ze SmashJT, zapadły już decyzje EA o rozwiązaniu całego zespołu odpowiedzialnego za Dragon Age: The Veilguard. Oficjalny komunikat na ten temat za zostać opublikowany w lutym.
Więcej na:
https://www.ppe.pl/news/361481/bioware-ponosi-konsekwencje-porazki-nowego-dragon-age-ea-ma-zwolnic-caly-zespol.html
CZAS HONORU🇵🇱
https://t.me/bip_pl
#Regex? E... bez przesady. Mało to czytelne, ale jest tyle "pomocy naukowych"...
Forwarded from POLSKA SZTUKA WOJNY 🇵🇱 Wojna Ukraina Rosja Izrael Iran Liban Wiadomości Polski Kanał Informacyjny Geopolityka bez cenzury (𝓙𝒖𝒔𝒕𝒊𝒄𝒆©️)
⚡️Telegram przekazał władzom krajów zachodnich dane ponad 10 tys. użytkowników – radio France Info
Radio podaje, że Pavel Durov oświadczył przed sądem we Francji, że Telegram usuwa co miesiąc od 15 do 20 milionów kont za naruszenie prawa i podkreślił, że komunikator nie jest przeznaczony do użytku przez przestępców.
Przypomnijmy, że Durov został zatrzymany we Francji w sierpniu 2024 r. pod zarzutem powiązań z przestępczością zorganizowaną, w tym odmowy przekazania władzom danych. Później został zwolniony za kaucją z zakazem opuszczania kraju.
🇵🇱 Polska Sztuka Wojny
https://t.me/sztuka_wojny
Radio podaje, że Pavel Durov oświadczył przed sądem we Francji, że Telegram usuwa co miesiąc od 15 do 20 milionów kont za naruszenie prawa i podkreślił, że komunikator nie jest przeznaczony do użytku przez przestępców.
Przypomnijmy, że Durov został zatrzymany we Francji w sierpniu 2024 r. pod zarzutem powiązań z przestępczością zorganizowaną, w tym odmowy przekazania władzom danych. Później został zwolniony za kaucją z zakazem opuszczania kraju.
🇵🇱 Polska Sztuka Wojny
https://t.me/sztuka_wojny
Forwarded from TechLead Bits
Small Language Models
While large language models (LLMs) are booming and discussed everywhere, there’s another important trend in the AI world—Small Language Models (SLMs).
A small language model (SLM) is a language model similar to a large language model but with a significantly reduced number of parameters. SLMs typically range from a few million to a few billion parameters, while LLMs have hundreds of billions or even trillions. For example, GPT-3 has 175 billion parameters, whereas Microsoft’s Phi-2, an SLM, has just 2 billion.
Main techniques to train SLMs:
✏️ Knowledge Distillation. A smaller model (the "student") learns from a bigger, already-trained model (the "teacher"). The student model is trained to not only match the teacher model’s predictions but also mimic its underlying process of reasoning. Typically the teacher model’s weights are frozen and cannot be changed during the distillation process.
✏️ Pruning. This is a process of getting rid of the extra bits that aren't really needed, making it smaller and faster without loosing too much accuracy.
Key advantages:
✔️ Resource Efficiency. SLMs are more compact and require fewer resources that makes them suitable for deployment on small devices.
✔️Cost-Effectiveness. They are much cheaper to train and deploy compared to LLMs.
✔️ Customization. SLMs can be fine-tuned on specific datasets, making them highly efficient for specialized tasks in particular industries.
✔️ Security. SLMs can be deployed locally or in private cloud environments, keeping sensitive data under organizational control.
There’s no one-size-fits-all solution when it comes to AI adoption. Every business will focus on efficiency and select the best and most cost-effective tool to get the job done properly. Architects should carefully select the right-sized model for each project based on its goals and constraints.
#aibasics
While large language models (LLMs) are booming and discussed everywhere, there’s another important trend in the AI world—Small Language Models (SLMs).
A small language model (SLM) is a language model similar to a large language model but with a significantly reduced number of parameters. SLMs typically range from a few million to a few billion parameters, while LLMs have hundreds of billions or even trillions. For example, GPT-3 has 175 billion parameters, whereas Microsoft’s Phi-2, an SLM, has just 2 billion.
Main techniques to train SLMs:
✏️ Knowledge Distillation. A smaller model (the "student") learns from a bigger, already-trained model (the "teacher"). The student model is trained to not only match the teacher model’s predictions but also mimic its underlying process of reasoning. Typically the teacher model’s weights are frozen and cannot be changed during the distillation process.
✏️ Pruning. This is a process of getting rid of the extra bits that aren't really needed, making it smaller and faster without loosing too much accuracy.
Key advantages:
✔️ Resource Efficiency. SLMs are more compact and require fewer resources that makes them suitable for deployment on small devices.
✔️Cost-Effectiveness. They are much cheaper to train and deploy compared to LLMs.
✔️ Customization. SLMs can be fine-tuned on specific datasets, making them highly efficient for specialized tasks in particular industries.
✔️ Security. SLMs can be deployed locally or in private cloud environments, keeping sensitive data under organizational control.
There’s no one-size-fits-all solution when it comes to AI adoption. Every business will focus on efficiency and select the best and most cost-effective tool to get the job done properly. Architects should carefully select the right-sized model for each project based on its goals and constraints.
#aibasics
Dyrektor generalny TikToka Shou Chew dziękuje Trumpowi za jego wysiłki, chwaląc jego zaangażowanie w utrzymanie dostępności aplikacji w USA
https://interestingengineering.com/culture/trumps-tiktok-crusade-fades
https://interestingengineering.com/culture/trumps-tiktok-crusade-fades
Interesting Engineering
Trump’s anti-China TikTok crusade fades before US Presidential oath
Donald Trump, once determined to ban TikTok, now announces plans to delay the ban and protect the app's future in the U.S.
Mastodon (aplikacja internetowa) – Wikipedia, wolna encyklopedia
https://pl.wikipedia.org/wiki/Mastodon_(aplikacja_internetowa)
https://pl.wikipedia.org/wiki/Mastodon_(aplikacja_internetowa)
Wikipedia
Mastodon (aplikacja internetowa)
zdecentralizowana sieć społecznościowa
Ciekawe tylko ile wytrzyma taka 800 razy wydajniejsza karta 😁
https://ithardware.pl/aktualnosci/chiny_nvidia_algorytm_gpu-38599.html
PS: zdaje się że w oryginalnym doniesieniu było 800 ale PROCENT, więc rezultat nie jest znowu taki oszałamiający - w programowaniu równoległym dobry algorytm może podnieść wydajność o rząd wielkości.
https://ithardware.pl/aktualnosci/chiny_nvidia_algorytm_gpu-38599.html
PS: zdaje się że w oryginalnym doniesieniu było 800 ale PROCENT, więc rezultat nie jest znowu taki oszałamiający - w programowaniu równoległym dobry algorytm może podnieść wydajność o rząd wielkości.
ITHardware
Chińczycy rozpracowali Nvidię. Algorytm przyspiesza gamingowe GPU kilkaset razy
Naukowcy z Rosji i Chin dokonali prostej modyfikacji algorytmu, zwiększając wydajność kart graficznych Nvidia nawet 800 razy
Chińska sztuczna inteligencja ma oczywiście wbudowaną cenzurę!
https://youtu.be/Sb1-9rFno3I?si=Ke0kFdl3ZdB4zB_y
#AI #Chiny #deepseek #cenzura
PS: co nie znaczy, że inne pokażą wam wszystko 😁
https://youtu.be/Sb1-9rFno3I?si=Ke0kFdl3ZdB4zB_y
#AI #Chiny #deepseek #cenzura
PS: co nie znaczy, że inne pokażą wam wszystko 😁
YouTube
CHIŃSKI CZARNY ŁABĘDŹ AI – DEEPSEEK WSTRZĄSA ŚWIATEM!
- W minionym tygodniu Chiny zatrzęsły światem. Wszystko za sprawą DeepSeek – konkurencji dla różnych zachodnich czatów (…) W zasadzie DeepSeek to taki „czarny łabędź” troszeczkę – zauważa Robert Gwiazdowski w najnowszym odcinku podcastu video „Gwiazdowski…
Miliony ludzi na całym świecie otworzyły konta w serwisie chińskiej firmy #DeepSeek, aby korzystać z jej modelu sztucznej inteligencji. Nie wiedzieli(?), że pozwalają na dostęp do swoich danych i sekretów gigantowi chińskiej telekomunikacji, zakazanemu w USA.
Pod koniec stycznia na świecie stało się głośno o chińskiej firmie DeepSeek i jej modelu sztucznej inteligencji, który przedstawiano jako konkurenta amerykańskiego ChatuGPT - tyle że tańszego, pożerającego mniej energii, a nawet zbudowanego za ułamek pieniędzy, jakie w opracowanie #ChatGPT zainwestowała amerykańska spółka #OpenAI.
#AI #Chiny #wywiad #służby
PS: Ale z każdej dużej aplikacji #Www i tak służby w jakiś sposób korzystają. Dlatego mamy różne ograniczenia w szyfrowaniu 😁
Pod koniec stycznia na świecie stało się głośno o chińskiej firmie DeepSeek i jej modelu sztucznej inteligencji, który przedstawiano jako konkurenta amerykańskiego ChatuGPT - tyle że tańszego, pożerającego mniej energii, a nawet zbudowanego za ułamek pieniędzy, jakie w opracowanie #ChatGPT zainwestowała amerykańska spółka #OpenAI.
#AI #Chiny #wywiad #służby
PS: Ale z każdej dużej aplikacji #Www i tak służby w jakiś sposób korzystają. Dlatego mamy różne ograniczenia w szyfrowaniu 😁
LINUX &&|| PROGRAMMING
Miliony ludzi na całym świecie otworzyły konta w serwisie chińskiej firmy #DeepSeek, aby korzystać z jej modelu sztucznej inteligencji. Nie wiedzieli(?), że pozwalają na dostęp do swoich danych i sekretów gigantowi chińskiej telekomunikacji, zakazanemu w USA.…
Firma #Wiz opublikowała niepokojący wpis informujący o znalezieniu niezabezpieczonej instancji kolumnowej bazy danych opracowanej przez Yandexa – #ClickHouse. To otwartoźródłowe narzędzie typu #OLAP (Online Analytical Processing) stworzone do szybkiego przetwarzania dużych zbiorów danych. Interakcje z bazą danych można prowadzić przy pomocy języka SQL.
W chwili gdy #DeepSeek uzyskał rozgłos za sprawą publikacji modelu R1 (który w testach wyprzedza model GPT-4o), badacze z Wiz przeskanowali widoczne z Internetu zasoby firmy. Znaleźli przeszło trzydzieści aplikacji i API. Ich uwagę zwróciły jednak nietypowe otwarte porty TCP – 8123 i 9000 dostępne na następujących hostach:
http[:]//oauth2callback.deepseek[.]com:8123
http[:]//dev.deepseek[.]com:8123
http[:]//oauth2callback.deepseek[.]com:9000
http[:]//dev.deepseek[.]com:9000
Po szybkiej analizie ustalono, że jest to publicznie dostępny interfejs ClickHouse nie posiadający żadnej (!) metody uwierzytelnienia.
https://sekurak.pl/baza-danych-chinskiego-llm-deepseek-wystawiona-do-sieci-a-w-niej-historia-chatow/
#Chiny #AI
W chwili gdy #DeepSeek uzyskał rozgłos za sprawą publikacji modelu R1 (który w testach wyprzedza model GPT-4o), badacze z Wiz przeskanowali widoczne z Internetu zasoby firmy. Znaleźli przeszło trzydzieści aplikacji i API. Ich uwagę zwróciły jednak nietypowe otwarte porty TCP – 8123 i 9000 dostępne na następujących hostach:
http[:]//oauth2callback.deepseek[.]com:8123
http[:]//dev.deepseek[.]com:8123
http[:]//oauth2callback.deepseek[.]com:9000
http[:]//dev.deepseek[.]com:9000
Po szybkiej analizie ustalono, że jest to publicznie dostępny interfejs ClickHouse nie posiadający żadnej (!) metody uwierzytelnienia.
https://sekurak.pl/baza-danych-chinskiego-llm-deepseek-wystawiona-do-sieci-a-w-niej-historia-chatow/
#Chiny #AI
Sekurak
Baza danych chińskiego LLM DeepSeek wystawiona do sieci, a w niej historia chatów
DeepSeek – to nazwa chińskiego startupu, który podniósł i odrzucił rękawicę rzuconą między innymi przez OpenAI w zakresie użyteczności modeli LLM. W ostatnich dniach, jest odmieniana w mediach przez wszystkie przypadki. Jednak w tym wyścigu technologicznym…
Prof. Andrzej #Dragan o sztucznej inteligencji. "Coraz mniej kontrolujemy... rozwój #AI"
https://youtube.com/watch?v=eWe8bs2Lydw&si=vk2zn6CNBbq-16Bb
https://youtube.com/watch?v=eWe8bs2Lydw&si=vk2zn6CNBbq-16Bb
YouTube
Prof. Andrzej Dragan o sztucznej inteligencji. "Coraz mniej kontrolujemy rozwój"
Gościem FXMAG jest prof. Andrzej Dragan. Tematem rozmowy jest sztuczna inteligencja, jej rozwój i przyszłość, a także to jak wpłynie na społeczeństwo i nas samych. Rozmowa została zarejestrowana podczas konferencji XTB Investing Masterclass 2024.
Sponsorem…
Sponsorem…