Forwarded from 바나나우유 일기장 (BananamilkX)
레이어제로 시빌을 잡은 카오스 랩스 파운더의 글을 살펴보면,
총 유저는 482만명
CEX/DEX 및 브릿지를 중심으로 사용자 자금 출처 파악
(자금 조달자의 50% 이상)
처음 각 계정으로 자금을 조달한 방법을 확인함
> 상세로 보면, 24시간이내로 CEX/DEX 혹은 브릿지를 통해서 자금을 조달받고 바로 레이어제로를 찍으면 대상이 되고, 같은 출처라면 Sybil 의심
24시간 이상의 타임프레임으로 LZ 사용자 자금을 추적
같은 자금 출처 / 행동 유사성
처음 입금한 금액의 유사성
레이어제로 TX의 갯수 유사성
지갑의 총 TX의 갯수 유사성
사용한 dAPP or protocol 갯수 유사성
사용한 체인의 갯수 및 동일 혹은 유사한 네트워크 사용
레이어제로 Tx 볼륨 평균(Volume per interaction w/ LZ)
실루엣 스코어 >0.7 인 샘플을 시빌대상으로 올림
(실루엣 스코어가 높을 수록 Cluster일 확률이 큼)
정리하다가 글 올리게 되었는데요.
생각보다 높은 기준으로 잡은 건 맞는 것 같습니다.
그리고 큰 문제는 여기서 끝이 아니라는 점
(본 글에서 클러스터 잡은 기준은 생략함)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 코인같이투자 정보 에어드랍
텔린이들을 위한 참고사항
이렇게 밑에 "전달된 채널" 이 뜨면 제가 쓴 글이 아닌 다른 분들이 쓴 글을 옮겨온 것입니다. 일종의 싸이월드 퍼가요 기능이라 보시면 됩니다!
이거 모르셨던 텔레그램 신규분들이 저를 해킹당하고 10억 벌었다가 다시 해킹 당하고 어디에나 존재하는 사람으로 생각하시던데...그정도로 부지런하진 않습니다.
이렇게 밑에 "전달된 채널" 이 뜨면 제가 쓴 글이 아닌 다른 분들이 쓴 글을 옮겨온 것입니다. 일종의 싸이월드 퍼가요 기능이라 보시면 됩니다!
이거 모르셨던 텔레그램 신규분들이 저를 해킹당하고 10억 벌었다가 다시 해킹 당하고 어디에나 존재하는 사람으로 생각하시던데...그정도로 부지런하진 않습니다.
Forwarded from 알랑이 정보교류소 (Alan Riddler)
바낸 프로젝트 신청 열림
- 최근의 고FDV 로우캡 상장 우려 알고있고 리서치도 냄
- 낮은 시총의 프로젝트가 원하면 지원 가능하도록 통로를 오픈
- 메가드랍, 런치풀, 상장등에 대해 지원
https://www.binance.com/en/support/articles/95b023902fef42e6a630425170460656
- 최근의 고FDV 로우캡 상장 우려 알고있고 리서치도 냄
- 낮은 시총의 프로젝트가 원하면 지원 가능하도록 통로를 오픈
- 메가드랍, 런치풀, 상장등에 대해 지원
https://www.binance.com/en/support/articles/95b023902fef42e6a630425170460656
Binance
Calling For Project Applicants | Binance Support
Fellow Binancians, Binance is committed to fostering a healthy and sustainable market environment and always prioritizing our users’ interest . In recent months, we have observed a trend of tokens ...
Forwarded from 신기술은 돈이 된다 공지방 (트비.dms)
Forwarded from KOOB Crypto 3.0 (쿱크립토) (쿠쿠Koob (UTC+9) (T))
Forwarded from 세나 리서치
1️⃣ 피자 기프티콘 NFT 드롭스
(5월 22일 14시 선착순)
https://upbit.com/nft/drops/fixed-price-auction/7abc480e-17f6-4d73-be9e-3444efe5b35c
- 5만원 상당 도미노피차 세트 기프티콘 (선착순 2024명)
2️⃣ 퀴즈 이벤트
(5월 22일 하루동안)
https://upbit.onelink.me/dH32/wan98rp0
- 만점자 중 BTC 차등 지급 (추첨 2024명)
업비트공지
Please open Telegram to view this post
VIEW IN TELEGRAM
나만아는 공지방
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from 세나 리서치
(5월 22일 하루동안)
https://upbit.onelink.me/dH32/wan98rp0
- 만점자 중 BTC 차등 지급 (추첨 2024명)
1) 라스즐로 핸예츠
2) 2010년 5월 22일
3) $41
4) 함께라서 더 좋은 2022 업비트 피자데이
5) 8,535판
6) 2019년
7) 나두-업티스트
8) 좋은이웃가게
아직 한 발 남았다.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DeSpread Channel
크립토 프로젝트는 운영진과 커뮤니티가 함께 프로젝트의 미래를 결정하는 탈중앙 거버넌스를 중심으로 운영됩니다. 이러한 요소는 커뮤니티를 단순히 사용자나 투자자들의 집합이 아닌, 프로젝트의 성패를 좌우하는 핵심 요소로 자리 잡게 만들었습니다.
따라서 한국 시장에 존재하는 다양한 커뮤니티를 분석하는 것은 한국 시장의 특성을 이해하는 데에 매우 중요한 작업입니다.
이번 글에서는 한국 크립토 커뮤니티만의 독특한 성향과 트렌드를 데이터를 통해 다각도로 분석하여 급변하는 크립토 시장 속 한국 투자자들의 움직임을 살펴보겠습니다.
https://research.despread.io/kr-di-03
따라서 한국 시장에 존재하는 다양한 커뮤니티를 분석하는 것은 한국 시장의 특성을 이해하는 데에 매우 중요한 작업입니다.
이번 글에서는 한국 크립토 커뮤니티만의 독특한 성향과 트렌드를 데이터를 통해 다각도로 분석하여 급변하는 크립토 시장 속 한국 투자자들의 움직임을 살펴보겠습니다.
https://research.despread.io/kr-di-03
Forwarded from 👾 Play Earn 정보방 👾
BNB 체인에서 주기적으로 발간하는 웹3 게이밍 리포트가 6일 전에 업로드 되었네요. 대충 아직 상장하지 않은 프로젝트만 몇 개 정리해보겠습니다.
World of Dypians: 몰입형 MMORPG 게임으로 최근 바이낸스 에어드랍 얼라이언스 프로그램 진행함.
Metacene: 바이낸스 랩스 인큐베이팅 출신, 올초 $10M 추가 펀드레이징 이후 OKX 쪽에서의 샤라웃이 많이 보임.
Cellula: 바이낸스 시즌 6 인큐베이션 프로젝트 (NFPrompt, Ethena와 동기) 게임 플레이를 통한 포인트 파밍으로 $CELL 에어드랍 가능
Counter Fire: 최근 아비트럼 그랜츠 받은 MOBA 장르의 게임, 현재 Play to Airdrop 캠페인 진행중 (2주 남은 듯)
StarryNift: AI 기반 메타버스 플랫폼, 작년 5월 Susquehanna 리드로 Binance Labs, BSC Fund 등으로부터 $10M 투자받음.
Well3: 속칭 요가펫즈로 opBNB 에서 Carv급 노가다 시키는 애들로 유명. 프리세일도 끝났고 TGE만 남음
이외 Xterio, Gomble, Ultiverse처럼 유명한 프로젝트는 제외하고 SkyArk도 은근 언급이 많이 되는데 개인적인 PTSD가 있어 소식까지 정리하고 싶지는 않네요.
대부분 인큐베이팅 + 얼라이언스 프로그램 참가한 프로젝트 언급하는 용도로 사용하는 것 같으니 요정도 커넥션만 있다 정도로 알아두시면 됩니다.
https://www.bnbchain.org/en/blog/bnb-chain-web3-gaming-ecosystem-report
World of Dypians: 몰입형 MMORPG 게임으로 최근 바이낸스 에어드랍 얼라이언스 프로그램 진행함.
Metacene: 바이낸스 랩스 인큐베이팅 출신, 올초 $10M 추가 펀드레이징 이후 OKX 쪽에서의 샤라웃이 많이 보임.
Cellula: 바이낸스 시즌 6 인큐베이션 프로젝트 (NFPrompt, Ethena와 동기) 게임 플레이를 통한 포인트 파밍으로 $CELL 에어드랍 가능
Counter Fire: 최근 아비트럼 그랜츠 받은 MOBA 장르의 게임, 현재 Play to Airdrop 캠페인 진행중 (2주 남은 듯)
StarryNift: AI 기반 메타버스 플랫폼, 작년 5월 Susquehanna 리드로 Binance Labs, BSC Fund 등으로부터 $10M 투자받음.
Well3: 속칭 요가펫즈로 opBNB 에서 Carv급 노가다 시키는 애들로 유명. 프리세일도 끝났고 TGE만 남음
이외 Xterio, Gomble, Ultiverse처럼 유명한 프로젝트는 제외하고 SkyArk도 은근 언급이 많이 되는데 개인적인 PTSD가 있어 소식까지 정리하고 싶지는 않네요.
대부분 인큐베이팅 + 얼라이언스 프로그램 참가한 프로젝트 언급하는 용도로 사용하는 것 같으니 요정도 커넥션만 있다 정도로 알아두시면 됩니다.
https://www.bnbchain.org/en/blog/bnb-chain-web3-gaming-ecosystem-report
Forwarded from 안수빈의 Web3 (Subin An | Hashed)
[대AI시대에 대한 견해]
AI 모델은 기본적으로 데이터 간의 관계를 통해 확률을 학습하는 형태입니다. 즉 모든 것에 대해 결정론적으로 정답을 만들지는 못한다는 것입니다. "인식"라는 것도 어떻게 보면 확률입니다. 강아지를 보고 이를 인식한다는 것은 내가 보고 있는 것이 강아지로 보일 확률이 매우 높기에 강아지로 인식하게 되는 것이죠. 강아지도 종류는 매우 많고 우리는 강아지의 공통된 특성 "이데아"를 알 수는 없으니까요.
결국 표본집단의 개별 데이터 간의 관계, 분포 등을 연산하여 높은 확률로 계산하는 것이 가장 중요합니다. 다만 우리는 모든 데이터, 즉 모집단의 정보를 알 수는 없습니다. 다만 우리가 구한, 실제로는 경험한, 데이터를 바탕으로 표본집단에서 모집단의 분포를 추정하는 방식이죠. 모집단에 비해 매우 작은 규모의 데이터를 통해 좋은 성능을 내기 위해서는 데이터의 특징을 기반으로 "일반화"가 필수입니다.
실제로 인간은 이런 표본집단에 대해 과도하게 정답을 매기면 통해 성급한 일반화의 오류를 범하고는 합니다. AI도 마찬가지입니다. 데이터에 대한 분포를 제대로 학습하지 못한다면 일반화의 오류는 발생할 수 밖에 없죠. 흔히 모델링에서는 과적합(overfitting)이라고 이야기합니다.
그렇기에 모델의 일반화를 적정한 수준에서 하면서 서로 다른 분포에 있는 데이터 간의 관계, 연결성에 대해 학습하는 게 상당히 중요합니다. 우리는 이것을 Inductive Bias(이하 IB)라고 합니다. 근데 아이러니하게 모든 데이터의 연결성을 강하게 준다면 오히려 과적합이 없을 수 있죠.
GPT의 근간인 Transformer가 나오기 이전에 모델들은 일반화 수준을 높게 달성하고 데이터 효율적으로 쓰기 위해 노력했습니다. 모든 데이터 간의 관계를 학습하는 것은 이론적으로도, 컴퓨팅 파워의 한계, 시간적인 소모도 문제였으니까요. 심지어 모든 데이터 간의 관계를 학습하고도 좋은 모델이 나오려면 데이터도 많이 필요하죠.
그래서 Transformer의 논문, Attention is All you need가 발표된 이후에 업계의 발전 속도는 급격하게 성장합니다. Transformer의 발전과 하드웨어적인 발전, 그리고 대규모 자본의 진입과 함께 특이점을 넘어버립니다. 하드웨어와 데이터만 충분하다면 데이터의 관계를 더 범용적으로 학습하며 이제는 거의 모든 것을 알고 있는 것만 같은 LLM으로 불리는 모델들을 만들 수 있게 된 것이죠. 그리고 이제는 더 나아가 이미지, 음성, 비디오 등의 멀티모달(multi-modal) 데이터 까지 학습을 할 수 있게 되었습니다.
물론 연구를 해보고 논문을 살펴보면 여러가지 디테일은 아직 연구할 게 많습니다. 트랜스포머 구조부터, 들어가는 토큰 구조나 효과적인 트랜스포머 배치나 등등... 다만 여기서 주목할 것은 이것에 대한 "비용"입니다.
일반적으로 AI모델은 실제 학습을 돌리기 전까지는 결과에 대해 확신을 가지기는 어렵습니다. 특히 모델의 특정 부분을 수정하고 이를 확인하기 위해서는 또 오랜 시간이 필요하죠. 그렇기에 과거부터 구글 등 기업은 "Back of Tricks" 등 본인들이 GPU를 몇 백개를 몇 백시간 돌린 결과물에 대해 벤치마크를 만들고 공유하기도 했습니다. 이게 과연 일반적인 스타트업에서 가능할까요? 일단 컴퓨터 비용도 장난 없는데 리서치 및 개발을 포함하여 QC, 배포, 프로덕트 매니징 등 수 많은 역할을 해야하다보니 결국에는 자체 대규모 모델을 시도하는 프로젝트 레벨에서 이 모든 것을 하기에는 비용적으로 어렵습니다. 그러다보니 자체적인 모델에 대해 고민을 하긴 하겠지만 API 사업에 비해 비용적으로 뒤쳐질 수 밖에 없다보니 모든 AI 스타트업이 API기업으로 보여질 수 밖에 없는 것도 사실입니다.
아직 넘어야할 산은 정말 많습니다. vector db, on-device나 ai칩 등 경량화나 하드웨어 측면에서는 여전히 리서치가 많이 필요한 상황입니다.
그리고 궁극적으로 AI가 실제 인간을 대체하고 더 장기적인 발전을 위해서는 로보틱스와 바이오 분야와의 결합이 더 필요한 상황입니다. 그리고 AI를 통한 자기 발전적인 AI학습까지 결합되는 순간부터는 초특이점이 오지 않을까 생각이 듭니다.
그럼에도 여전히 AI기업에는 기회가 많습니다. 결국 본질은 귀찮고, 처리가 어려운 일들이거든요. 장기적으로는 어렵겠지만 SI회사들이 살아남을 수 있고, 아이디어 싸움은 언제나 열려있습니다. 그리고 종종 도메인에 따라 GPT3.5 정도만으로도 성능이 충분할 수 있기에 결국은 아이디어 경쟁인거죠.
저는 결국에 특정 순간에서부터는 트롤리 딜레마 등 "어떤 결정이 옳은가", "AI에 주입되어 있는 사상은 어떤 기본적인 논리를 바탕으로 설계되어야 하는가" 등의 인문학적 소양이 가장 중요한 세상이 되지 않을까 생각합니다. 대AI시대에서 모두 함께 잘 살아남아봅시다 :)
AI 모델은 기본적으로 데이터 간의 관계를 통해 확률을 학습하는 형태입니다. 즉 모든 것에 대해 결정론적으로 정답을 만들지는 못한다는 것입니다. "인식"라는 것도 어떻게 보면 확률입니다. 강아지를 보고 이를 인식한다는 것은 내가 보고 있는 것이 강아지로 보일 확률이 매우 높기에 강아지로 인식하게 되는 것이죠. 강아지도 종류는 매우 많고 우리는 강아지의 공통된 특성 "이데아"를 알 수는 없으니까요.
결국 표본집단의 개별 데이터 간의 관계, 분포 등을 연산하여 높은 확률로 계산하는 것이 가장 중요합니다. 다만 우리는 모든 데이터, 즉 모집단의 정보를 알 수는 없습니다. 다만 우리가 구한, 실제로는 경험한, 데이터를 바탕으로 표본집단에서 모집단의 분포를 추정하는 방식이죠. 모집단에 비해 매우 작은 규모의 데이터를 통해 좋은 성능을 내기 위해서는 데이터의 특징을 기반으로 "일반화"가 필수입니다.
실제로 인간은 이런 표본집단에 대해 과도하게 정답을 매기면 통해 성급한 일반화의 오류를 범하고는 합니다. AI도 마찬가지입니다. 데이터에 대한 분포를 제대로 학습하지 못한다면 일반화의 오류는 발생할 수 밖에 없죠. 흔히 모델링에서는 과적합(overfitting)이라고 이야기합니다.
그렇기에 모델의 일반화를 적정한 수준에서 하면서 서로 다른 분포에 있는 데이터 간의 관계, 연결성에 대해 학습하는 게 상당히 중요합니다. 우리는 이것을 Inductive Bias(이하 IB)라고 합니다. 근데 아이러니하게 모든 데이터의 연결성을 강하게 준다면 오히려 과적합이 없을 수 있죠.
GPT의 근간인 Transformer가 나오기 이전에 모델들은 일반화 수준을 높게 달성하고 데이터 효율적으로 쓰기 위해 노력했습니다. 모든 데이터 간의 관계를 학습하는 것은 이론적으로도, 컴퓨팅 파워의 한계, 시간적인 소모도 문제였으니까요. 심지어 모든 데이터 간의 관계를 학습하고도 좋은 모델이 나오려면 데이터도 많이 필요하죠.
그래서 Transformer의 논문, Attention is All you need가 발표된 이후에 업계의 발전 속도는 급격하게 성장합니다. Transformer의 발전과 하드웨어적인 발전, 그리고 대규모 자본의 진입과 함께 특이점을 넘어버립니다. 하드웨어와 데이터만 충분하다면 데이터의 관계를 더 범용적으로 학습하며 이제는 거의 모든 것을 알고 있는 것만 같은 LLM으로 불리는 모델들을 만들 수 있게 된 것이죠. 그리고 이제는 더 나아가 이미지, 음성, 비디오 등의 멀티모달(multi-modal) 데이터 까지 학습을 할 수 있게 되었습니다.
물론 연구를 해보고 논문을 살펴보면 여러가지 디테일은 아직 연구할 게 많습니다. 트랜스포머 구조부터, 들어가는 토큰 구조나 효과적인 트랜스포머 배치나 등등... 다만 여기서 주목할 것은 이것에 대한 "비용"입니다.
일반적으로 AI모델은 실제 학습을 돌리기 전까지는 결과에 대해 확신을 가지기는 어렵습니다. 특히 모델의 특정 부분을 수정하고 이를 확인하기 위해서는 또 오랜 시간이 필요하죠. 그렇기에 과거부터 구글 등 기업은 "Back of Tricks" 등 본인들이 GPU를 몇 백개를 몇 백시간 돌린 결과물에 대해 벤치마크를 만들고 공유하기도 했습니다. 이게 과연 일반적인 스타트업에서 가능할까요? 일단 컴퓨터 비용도 장난 없는데 리서치 및 개발을 포함하여 QC, 배포, 프로덕트 매니징 등 수 많은 역할을 해야하다보니 결국에는 자체 대규모 모델을 시도하는 프로젝트 레벨에서 이 모든 것을 하기에는 비용적으로 어렵습니다. 그러다보니 자체적인 모델에 대해 고민을 하긴 하겠지만 API 사업에 비해 비용적으로 뒤쳐질 수 밖에 없다보니 모든 AI 스타트업이 API기업으로 보여질 수 밖에 없는 것도 사실입니다.
아직 넘어야할 산은 정말 많습니다. vector db, on-device나 ai칩 등 경량화나 하드웨어 측면에서는 여전히 리서치가 많이 필요한 상황입니다.
그리고 궁극적으로 AI가 실제 인간을 대체하고 더 장기적인 발전을 위해서는 로보틱스와 바이오 분야와의 결합이 더 필요한 상황입니다. 그리고 AI를 통한 자기 발전적인 AI학습까지 결합되는 순간부터는 초특이점이 오지 않을까 생각이 듭니다.
그럼에도 여전히 AI기업에는 기회가 많습니다. 결국 본질은 귀찮고, 처리가 어려운 일들이거든요. 장기적으로는 어렵겠지만 SI회사들이 살아남을 수 있고, 아이디어 싸움은 언제나 열려있습니다. 그리고 종종 도메인에 따라 GPT3.5 정도만으로도 성능이 충분할 수 있기에 결국은 아이디어 경쟁인거죠.
저는 결국에 특정 순간에서부터는 트롤리 딜레마 등 "어떤 결정이 옳은가", "AI에 주입되어 있는 사상은 어떤 기본적인 논리를 바탕으로 설계되어야 하는가" 등의 인문학적 소양이 가장 중요한 세상이 되지 않을까 생각합니다. 대AI시대에서 모두 함께 잘 살아남아봅시다 :)
Forwarded from 인력DAO (류과장)
펌프펀 밈코 $DARE 개발자, 어그로용 라이브 스트리밍 도중 폭죽 맞고 3도 화상
투혼 덕분인지 MC 1M은 뚫었네요
https://decrypt.co/231807/solana-dev-hospitalized-burns-pump-meme-coin
투혼 덕분인지 MC 1M은 뚫었네요
https://decrypt.co/231807/solana-dev-hospitalized-burns-pump-meme-coin
Decrypt
Solana Dev Hospitalized With Third Degree Burns Trying to Pump Meme Coin - Decrypt
A Solana meme coin dev who had fireworks shot at him while doused in alcohol on livestream wound up hospitalized with severe burns.
Forwarded from 졸업준비위원회🎓
Forwarded from 잼민123
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM