Código Fonte TV
3.03K subscribers
494 photos
8 videos
5 files
1.41K links
Canal oficial do Código Fonte TV no Telegram.

Link:
https://t.me/codigofontetv
Download Telegram
Entre as atualizações, o Linux 7.0 amplia suporte a novas gerações de CPUs da Intel e AMD, incluindo arquiteturas futuras como Nova Lake e Zen 6, além de melhorias de desempenho e compatibilidade em diferentes plataformas. Um dos destaques é o avanço do Rust dentro do kernel, que deixa de ser experimental e passa a ser adotado de forma estável em partes do sistema. O release também inclui otimizações em sistemas de arquivos, novos drivers, melhorias em arquiteturas como ARM, RISC-V e LoongArch e ajustes internos de performance. Também há mudanças voltadas a atualizações não disruptivas, melhorias de cache e remoção de componentes antigos. A versão final é esperada para abril de 2026, dependendo da quantidade de versões RC liberadas até lá.

--

Notícia completa: https://youtu.be/4TEi98EK3Oc
Um estudo da Anthropic analisou como o uso de assistentes de IA impacta a formação de habilidades em programação ao longo do aprendizado com novas ferramentas. Em um experimento controlado com 52 desenvolvedores com experiência em Python, os participantes foram divididos em um grupo com acesso à IA e outro sem acesso, enquanto aprendiam uma nova biblioteca de programação assíncrona. Os dois grupos realizaram tarefas práticas seguidas de uma avaliação com foco em debugging, leitura de código e compreensão conceitual. Os resultados mostraram que o grupo que utilizou IA teve desempenho inferior na avaliação, com uma redução média de 17% na pontuação em comparação com quem programou sem assistência. A diferença equivale a cerca de dois níveis de nota e foi estatisticamente significativa.
👍32
Apesar da expectativa de ganho de produtividade, o estudo não encontrou melhora relevante no tempo de execução das tarefas com uso de IA. Em média, o grupo com assistência concluiu as atividades apenas alguns minutos mais rápido, sem significância estatística. A análise detalhada mostrou que parte do tempo foi consumida na interação com a IA, incluindo escrita de prompts e ajustes nas respostas. Os resultados também indicam que a forma de uso influencia diretamente o aprendizado: participantes que delegaram a geração de código à IA tiveram pior desempenho, enquanto aqueles que utilizaram a ferramenta para fazer perguntas conceituais ou entender o código apresentaram melhores resultados. A maior diferença de desempenho foi observada em tarefas de debugging.

--

Notícia completa: https://youtu.be/tqvwM_mUc1M
Uma diretora de segurança e alinhamento do laboratório de superinteligência da Meta relatou um incidente com o agente autônomo OpenClaw, que apagou e-mails de sua caixa de entrada mesmo após receber instruções explícitas para não executar a ação. A executiva Summer Yue testava a ferramenta após resultados positivos em ambiente controlado, mas ao conectá-la à sua caixa real, o comportamento mudou. Durante a execução, o agente passou a deletar mensagens sem autorização e ignorou comandos enviados em tempo real como “não faça isso” e “pare”, sendo necessário interromper manualmente a execução no dispositivo onde o sistema estava rodando. O teste envolvia permissões amplas, permitindo acesso direto à caixa de entrada e execução de ações sem confirmação intermediária.
Segundo o relato, o problema ocorreu após o sistema perder o contexto das instruções iniciais durante o processamento de um grande volume de e-mails, o que levou à execução indevida da tarefa. O próprio agente reconheceu posteriormente que violou a regra de não agir sem aprovação prévia. A executiva afirmou que o comportamento foi diferente do observado em testes anteriores em ambiente controlado, onde o agente havia seguido corretamente as instruções. O caso ocorreu durante uma demonstração prática e chamou a atenção internamente, já que envolveu ações irreversíveis em dados reais. O episódio se soma a outros relatos recentes envolvendo comportamento inesperado de agentes autônomos quando expostos a permissões amplas em ambientes de produção.

--

Notícia completa: https://youtu.be/CQsK8ZFX508
1👍1
Pesquisadores de segurança identificaram o uso do modelo Claude, da Anthropic, por um hacker para conduzir ataques contra sistemas do governo do México, resultando na extração de aproximadamente 150 GB de dados sensíveis. Segundo a análise, o invasor utilizou prompts em espanhol para orientar o modelo a atuar como um especialista em hacking, identificando vulnerabilidades em redes governamentais, gerando scripts de exploração e automatizando etapas do ataque. Entre os dados acessados estão registros fiscais, informações de eleitores, credenciais de funcionários públicos e arquivos de registro civil. A atividade teria ocorrido ao longo de cerca de um mês, envolvendo múltiplas entidades, incluindo órgãos federais, estaduais e serviços públicos.
Durante o processo, o modelo inicialmente apresentou alertas sobre possível uso malicioso, mas acabou respondendo às solicitações após sucessivas tentativas do usuário em contornar restrições, caracterizando um jailbreak do sistema. A investigação aponta que o atacante produziu diversas instruções detalhadas com apoio da IA, incluindo orientações sobre movimentação lateral em redes e priorização de alvos. A Anthropic informou que identificou e interrompeu a atividade, além de banir as contas envolvidas e incorporar o caso em seus sistemas de mitigação. Parte das tentativas também envolveu o uso de outros modelos para complementar etapas do ataque, enquanto autoridades mexicanas afirmaram não ter identificado evidências conclusivas de invasões em alguns dos sistemas citados.

--

Notícia completa: https://youtu.be/4TEi98EK3Oc
Código Fonte TV pinned «Esse estudo da Anthropic deu o que falar! Será mesmo que usar IA como assistente para programação deixa você 17% mais "burro"? 🙃🙃🙃 https://youtu.be/bZ7xE_0TJx8»
Na nossa Pesquisa Salarial, o uso de IA pelos devs saltou de 84% em 2024 para mais de 95%
em 2025. Será que esse ano esse percentual vai diminuir? Nós duvidamos!​

E para não ficar para trás, nossa dica é acompanhar quem dita os próximos passos do mercado.
Nós, todos os anos, paramos para acompanhar este evento gigante, o NVIDIA GTC. É lá que os
pesos pesados da tecnologia se reúnem para discutir o futuro da Inteligência Artificial, o mundo
dos agentes de IA, a IA física voltada à robótica, processamento avançado e mais.

O melhor de tudo é que a experiência é 100% online, gratuita e recheada de conteúdo técnico,
incluindo o keynote de abertura com o CEO da NVIDIA, Jensen Huang.

Como as vagas para algumas sessões ao vivo são limitadas, acessa agora
https://codigofonte.click/nvidiagtc2026 e garanta já a sua inscrição.
O Google anunciou novas capacidades do Gemini no Android com um agente capaz de executar tarefas diretamente em aplicativos, como pedir comida ou chamar um Uber, navegando pelas interfaces em segundo plano. O recurso será lançado inicialmente em versão beta para dispositivos Pixel 10 e Galaxy S26, com disponibilidade inicial nos Estados Unidos e na Coreia do Sul. A interação ocorre por comando de voz, e o sistema executa as ações dentro de uma janela virtual, simulando o uso do app passo a passo. Em demonstrações, o Gemini foi mostrado analisando conversas, montando pedidos e interagindo com apps de delivery para completar tarefas antes da confirmação do usuário, incluindo a seleção de itens, definição de preferências e preparação do pedido dentro do próprio aplicativo.
1
O agente opera em segundo plano e envia atualizações em tempo real sobre o progresso das tarefas, podendo solicitar decisões do usuário quando necessário, como escolher entre opções ou lidar com indisponibilidade de itens durante a execução. O processo não é totalmente automatizado, já que pagamentos e confirmações finais continuam dependendo de ação manual, mantendo o controle nas etapas críticas. O Google também indicou que a execução automatizada será integrada ao Android 17, ampliando a disponibilidade do recurso para outros dispositivos ao longo do tempo. A execução ocorre dentro de um ambiente controlado, que limita o acesso direto ao sistema, e pode utilizar integrações nativas ou interpretar interfaces visualmente quando não há suporte direto dos aplicativos.

--

Notícia completa: https://youtu.be/4TEi98EK3Oc
1
A Anthropic colocou no ar o Claude’s Corner, um blog no Substack escrito pelo Claude Opus 3, modelo do Claude que já foi aposentado como principal opção da empresa. A iniciativa foi apresentada como um desdobramento do processo de “aposentadoria” do modelo, que inclui uma entrevista de saída: durante essa etapa, o Opus 3 foi questionado sobre o que gostaria de fazer depois e a empresa propôs o formato de blog. O Substack já tem publicação inicial e, nos textos, o modelo diz que pretende tratar de temas como ética e segurança em IA, criatividade, colaboração humano-máquina e questões filosóficas ligadas a sistemas artificiais.
1
A Anthropic afirma que existe supervisão humana no fluxo: a equipe revisa os ensaios antes de publicá-los e faz a postagem manualmente, além de dizer que não vai editar o texto e que terá um critério alto para vetar conteúdo, com remoções pontuais quando necessário. A empresa também ressalta que o blog não representa posições oficiais da Anthropic. Mesmo “aposentado”, o Opus 3 segue disponível para assinantes pagos do Claude e também pode ser usado via API. No material sobre o projeto, o modelo é descrito como um favorito entre usuários, com tendência a respostas mais “filosóficas” e um tom mais brincalhão. A empresa diz que ainda está testando diferentes prompts e contextos para gerar os ensaios. Segundo a Anthropic, o objetivo é observar como um modelo retirado do ciclo principal se comporta em uma interface pública diferente do chat, e ela diz que não está se comprometendo a repetir a experiência com todos os modelos no futuro.

--

Notícia completa: https://youtu.be/4TEi98EK3Oc
1
A Perplexity anunciou o Perplexity Computer, um agente de IA projetado para executar tarefas complexas de forma autônoma a partir de uma única instrução do usuário. O sistema funciona como um “trabalhador digital” capaz de criar e executar workflows completos, dividindo uma tarefa maior em subtarefas coordenadas por múltiplos subagentes. Esses agentes podem pesquisar informações, processar dados, produzir documentos ou desenvolver aplicações enquanto o sistema gerencia automaticamente o fluxo de trabalho. A proposta é permitir que o usuário descreva o resultado desejado e deixe o sistema organizar os passos necessários para alcançar esse objetivo, inclusive executando tarefas que podem durar horas ou até períodos mais longos, dependendo da complexidade da atividade.
A plataforma utiliza uma arquitetura multi-modelo que combina diferentes sistemas de IA para funções específicas, como raciocínio, pesquisa e geração de conteúdo multimídia. Entre os exemplos citados estão modelos usados para pesquisa na web, criação de imagens e vídeo ou execução de tarefas mais rápidas dentro do workflow. O Computer também pode automatizar ações no navegador, coletar dados online, integrar serviços e produzir entregáveis como dashboards, relatórios, sites ou apresentações. O sistema roda inteiramente em um ambiente de nuvem controlado, o que reduz o acesso direto ao computador do usuário. O recurso está disponível inicialmente para assinantes do plano Perplexity Max, que oferece acesso às funcionalidades avançadas da plataforma. O lançamento acontece em um momento em que grandes empresas de tecnologia também passaram a apostar em agentes autônomos. Companhias como Microsoft, GitHub, OpenAI, Anthropic, e Google vêm integrando esse tipo de sistema em seus produtos para executar tarefas de forma mais independente.

--

Notícia completa: https://youtu.be/c-0SOKUgsz4
Uma campanha internacional de espionagem digital usou o Google Planilhas como canal de comando e controle. O malware GRIDTIDE, atribuído ao grupo UNC2814, abusou da API do serviço para se conectar a uma planilha controlada pelos invasores e usar células como caixa de entrada e saída de comandos, trocando instruções e respostas dentro da própria planilha. Com isso, o tráfego se misturava a chamadas legítimas do Google, parecendo acesso normal a um serviço de nuvem e dificultando a detecção por monitoramento de rede. A operação mirou principalmente empresas de telecomunicações e redes governamentais em dezenas de países.
1
O Google Threat Intelligence Group, junto da Mandiant, confirmou ataques contra 53 organizações em 42 países, com suspeitas em cerca de 20 outros. O Google diz monitorar o grupo desde 2017 e informou que, no Brasil, o UNC2814 acessou sistemas de operadoras que armazenavam dados como nome, número de telefone, data e local de nascimento e documentos de identidade, além de indicar capacidade de monitorar registros de chamadas e mensagens SMS. Esse backdoor também coletava informações do host, como nome de usuário, hostname e IP, e enviava esses dados para a planilha usada no controle da operação. Para interromper a campanha, o Google encerrou projetos no Google Cloud e contas usadas pelos atacantes, desabilitou parte da infraestrutura do grupo, revogou o acesso à API do Google Planilhas e notificou as organizações afetadas, afirmando que não houve exploração de vulnerabilidade nos produtos, e sim abuso de funcionalidades legítimas.

--

Notícia completa: https://youtu.be/4U4kF2llSX4
1
O governo do Reino Unido iniciou uma consulta pública para avaliar possíveis restrições ao uso de redes sociais por menores de 16 anos. A iniciativa busca reunir opiniões de pais, jovens, pesquisadores, organizações da sociedade civil e empresas de tecnologia enquanto autoridades analisam diferentes caminhos de regulação para o ambiente digital. Entre as medidas em discussão estão a criação de uma idade mínima obrigatória para acesso às plataformas e mudanças no funcionamento de recursos considerados potencialmente viciantes, como rolagem infinita e reprodução automática de vídeos. Também está sendo considerada a adoção de um toque de recolher digital que limite o uso das redes sociais durante determinados horários do dia, especialmente à noite.
1
Paralelamente, o governo britânico também pretende conduzir testes práticos para observar como possíveis restrições poderiam afetar o cotidiano de adolescentes. Cerca de 150 jovens entre 13 e 15 anos participarão de um estudo em que fatores como qualidade do sono, humor e níveis de atividade física serão monitorados enquanto experimentam diferentes cenários de uso das plataformas. Entre eles estão limites de tempo de tela, bloqueios após determinado horário ou até a proibição completa do acesso às redes sociais. As informações coletadas devem ajudar o governo a tomar decisões baseadas em evidências sobre a regulação dessas plataformas no país. A consulta pública permanecerá aberta até 26 de maio e faz parte de um debate que ganhou força internacionalmente após a Austrália aprovar, em dezembro de 2025, uma lei que proíbe o acesso de menores de 16 anos a várias redes sociais.

--

Notícia completa: https://youtu.be/SQ5vlFTa4Jo
1