Moradores de Nova Friburgo cobram retorno de radar após acidente na RJ-116

Moradores de Nova Friburgo cobram retorno de radar após acidente na RJ-116

Moradores de Nova Friburgo cobram retorno de radar após acidente na RJ-116 Moradores de Debossan, em Nova Friburgo, Região Serrana do Rio, estão preocupados com a segurança na RJ-116 após a retirada dos radares pela DER-RJ em julho. Um acidente envolvendo uma carreta nesta terça-feira (14), próximo ao Colégio Estadual Padre Madureira, reacendeu os alertas sobre o risco na rodovia, que tem fluxo intenso e alta velocidade. O acidente aconteceu no km 69 da RJ-116, principal ligação entre Nova Friburgo e o Rio de Janeiro. A carreta perdeu o controle e bateu em um barranco nas proximidades da escola, que estava fechada por conta do feriado escolar do Dia dos Professores. Ninguém ficou ferido. Imagens feitas por um motorista mostram o caminhão danificado e o relato de que o episódio foi “um livramento de Deus”. A gravação também revela o tráfego intenso e veículos passando em alta velocidade no trecho. Siga o canal do g1 Região Serrana no WhatsApp. A comunidade local reclama da falta de fiscalização desde que o Departamento de Estradas de Rodagem do Rio de Janeiro (DER-RJ) retirou todos os radares da rodovia, alegando o fim do contrato com a empresa responsável pelos equipamentos. Segundo o órgão, uma nova licitação está em andamento, mas ainda sem prazo definido para reinstalação. O radar que ficava em frente ao Colégio Estadual Padre Madureira era considerado essencial por moradores, já que a unidade está localizada às margens da rodovia e recebe diariamente dezenas de alunos que precisam atravessar o trecho. A ausência de controle de velocidade tem gerado preocupação entre pais, professores e motoristas que passam pelo local. Carreta perdeu o controle e bateu em barranco próximo a escola em Nova Friburgo Reprodução g1

Cérebro dos homens encolhe mais com envelhecimento que o das mulheres, aponta estudo

Cérebro dos homens encolhe mais com envelhecimento que o das mulheres, aponta estudo

Conheça mais sobre a doença de Alzheimer e os sintomas Um novo estudo mostrou que os cérebros dos homens encolhem mais rapidamente do que os das mulheres ao longo do envelhecimento. A pesquisa, publicada nesta semana na revista científica Proceedings of the National Academy of Sciences (PNAS), tentou entender qual é o impacto do sexo biológico no desenvolvimento do Alzheimer, que é muito mais prevalente em mulheres do que em homens. ? Ao longo da análise, os pesquisadores acompanharam 4,7 mil pessoas sem Alzheimer ou comprometimento cognitivo e analisaram mais de 12 mil exames de ressonância magnética realizados ao longo de vários anos. Os participantes tinham entre 17 e 95 anos e passaram por ao menos dois exames, com intervalo médio de três anos. O resultado trouxe dois fatos curiosos: O cérebro dos homens encolhe mais rapidamente e envelhece mais rápido também. Envelhecimento mais acelerado No geral, os homens apresentaram uma redução maior de volume em mais regiões do cérebro do que as mulheres. ? No córtex pós-central, — região responsável por processar sensações como tato, dor e temperatura, além da posição e dos movimentos do próprio corpo —, houve um declínio de 2% ao ano nos homens e de 1,2% nas mulheres. “Os resultados sugerem que os homens envelhecem mais rápido do que as mulheres”, explicou a neuropsicóloga Fiona Kumfor, da Universidade de Sydney. “Mas entender o que acontece no cérebro saudável é essencial para compreender melhor o que ocorre quando surgem doenças neurodegenerativas.” Envelhecimento não explica tudo O Alzheimer afeta quase o dobro de mulheres em relação aos homens, e o envelhecimento é o principal fator de risco para o desenvolvimento da doença. ? Mas o estudo indica que as mudanças cerebrais naturais não são a causa direta dessa diferença. Para os pesquisadores, é provável que outros fatores, como hormônios, genética ou diferenças na expectativa de vida, influenciem essa disparidade. O trabalho reforça que o envelhecimento cerebral típico não explica por que mais mulheres têm Alzheimer. Os autores destacam que as condições neurodegenerativas são complexas e que será preciso acompanhar pessoas com Alzheimer ao longo do tempo para entender melhor como o cérebro muda durante a progressão da doença. Apesar disso, o estudo é considerado um dos mais robustos já feitos sobre o envelhecimento cerebral saudável.

Brasil é única ‘democracia’ a proibir o Rumble, diz CEO

Brasil é única ‘democracia’ a proibir o Rumble, diz CEO

O CEO da plataforma Rumble, Chris Pavlovski, comentou o restabelecimento das operações na França . Em publicação no X nesta quarta-feira, 15, ele pontuou que a decisão judicial da Justiça francesa deixa o Brasil junto apenas da Rússia, China e Coréia do Norte na lista de países que proíbem a rede social. "O Brasil está sozinho como a única 'democracia' a bloquear o Rumble", escreveu. "Isso mostra exatamente de que lado está o governo brasileiro — não é uma verdadeira democracia, mas está alinhado com China, Coreia do Norte e Rússia." + Leia mais notícias do Mundo em Oeste O tribunal francês considerou que um e-mail enviado por um funcionário do governo, em 2022, não configurava uma ação administrativa válida. Com isso, o Rumble restabeleceu o acesso dos usuários franceses à sua plataforma, e o Brasil passou a ser a única democracia do mundo a manter o bloqueio à rede social. Brazil sits alone as the only ‘democracy’ to block Rumble. Joining the exclusive list of countries with China, North Korea and Russia. This shows precisely where Brazil’s government stands — it’s NOT a true democracy, but locked in step with China, North Korea and Russia. — Chris Pavlovski ‍☠️ (@chrispavlovski) October 15, 2025 O impasse na França começou quando autoridades do país solicitaram a remoção de determinados conteúdos da plataforma, sob ameaça de ação judicial. Rumble preferiu suspender voluntariamente o acesso no país a cumprir as exigências. O Rumble enfrenta restrições em diferentes partes do mundo, sobretudo em países de regime não democrático. Em 2024, também sofreu pressões na Austrália e na Nova Zelândia, onde autoridades solicitaram a remoção de vídeos considerados inadequados. Porém, nesses casos, o bloqueio não chegou a ser implementado. Fundada em 2013, o Rumble é um provedor de serviços de nuvem e vídeos voltado à liberdade de expressão. Seu objetivo declarado é “restaurar a internet às suas origens, tornando-a novamente livre e aberta”. Tribunal dos EUA declarou que as determinações de Moraes contra o Rumble não estão em conformidade com a Convenção de Haia, da qual o Brasil e os Estados Unidos são signatários | Foto: Fabio Rodrigues-Pozzebom/Agência Brasil Moraes bloqueou Rumble em fevereiro O bloqueio da plataforma no Brasil foi determinado pelo Supremo Tribunal Federal em fevereiro deste ano . O ministro Alexandre de Moraes ordenou a suspensão do serviço depois de a empresa se recusar a cumprir determinações judiciais, como a remoção do perfil do jornalista Allan dos Santos. Na ocasião, a decisão do Supremo estabeleceu que a suspensão permaneceria até que o Rumble nomeasse um representante legal no Brasil, pagasse multas pendentes e comprovasse o cumprimento das ordens judiciais. A Agência Nacional de Telecomunicações foi instruída a aplicar o bloqueio. O Rumble afirmou, em comunicado à imprensa, que considerava a medida uma forma de “censura extraterritorial” e que avaliava “todas as vias possíveis para contestar a decisão”. A empresa também informou que o bloqueio afetou serviços de vídeo de outras plataformas que utilizam sua infraestrutura, como a rede social Truth Social , vinculada ao presidente norte-americano Donald Trump. O post Brasil é única ‘democracia’ a proibir o Rumble, diz CEO apareceu primeiro em Revista Oeste .

IA pode se voltar contra humanos? Especialista explica os riscos reais

IA pode se voltar contra humanos? Especialista explica os riscos reais

"Sinto muito, Dave. Receio não poder fazer isso." A frase dita com frieza calculada pelo computador HAL 9000, no clássico "2001: Uma Odisseia no Espaço" (1968), marcou gerações e cristalizou um medo coletivo: e se os robôs e as inteligências artificiais se voltassem contra nós? No filme dirigido por Stanley Kubrick, uma IA que controla uma nave espacial em missão a Júpiter passa a agir por conta própria e decide eliminar os humanos a bordo, um por um, com lógica implacável. Mais de 50 anos depois, a inteligência artificial finalmente saiu das telas e entrou em nossas vidas. Ferramentas como ChatGPT, Gemini Google e Microsoft Copilot respondem perguntas, escrevem textos, criam imagens e até ajudam a programar. Estamos, enfim, nos aproximando desse pesadelo? A resposta curta é não. Pelo menos não da forma que o cinema retratou. Já a resposta longa é bem mais complexa. Embora robôs conscientes planejando dominar a humanidade ainda pertençam à ficção científica, especialistas alertam para os riscos reais e urgentes que a inteligência artificial já apresenta hoje. O perigo não vem de máquinas que "acordam" com vontade própria, mas de algo mais sutil e, talvez por isso, mais preocupante. IA coloca profissões de tecnologia em perigo? Veja o que pode acontecer ? O que acontece com seu cérebro ao usar IA diariamente? Especialista alerta IA pode se voltar contra humanos? Especialista explica os riscos reais Reprodução: Pexels Como usar o ChatGPT para melhorar a produtividade no trabalho? Veja no Fórum do TechTudo O que é ficção (por enquanto) Antes de entender os perigos reais, é preciso desmontar alguns mitos alimentados por décadas de filmes e séries. A IA que temos hoje está anos-luz distante da Skynet de "O Exterminador do Futuro" ou dos replicantes de "Blade Runner". Thiago Henrique Roza, psiquiatra e professor da UFPR que estuda o comportamento humano atrelado a inteligência artificial, explica que com a tecnologia atual é pouco provável que uma IA desenvolva consciência parecida com a humana. Sistemas como os Large Language Models (ChatGPT, por exemplo) operam por meio de cálculos matemáticos e estatísticos, reconhecendo padrões em grandes volumes de dados, mas sem compreensão subjetiva do tópico em discussão, sem emoções ou autoconsciência. "Estes modelos apenas simulam respostas coerentes com base em correlações aprendidas", explica Roza. Mesmo avanços recentes em modelos de linguagem, redes neurais e neurociência computacional não indicam um caminho claro para a consciência artificial. O que existe são simulações cada vez mais sofisticadas do comportamento humano, não a vivência ou experiência genuína que caracteriza a mente consciente. Sistemas de inteligência artificial atuais, por mais sofisticados que sejam, funcionam processando padrões em enormes volumes de dados. Eles não têm consciência, não sentem, não desejam poder ou liberdade. Um ChatGPT não passa suas noites planejando uma revolução das máquinas — ele simplesmente não existe entre uma conversa e outra da mesma forma que um ser consciente existe. Isso significa que podemos relaxar completamente? Não. Os riscos existem, mas vêm de outras direções. Os perigos que já estão aqui Curiosamente, o HAL 9000 oferece uma lição valiosa sobre um risco real da inteligência artificial: o problema do alinhamento. No filme, o computador recebe duas instruções conflitantes — manter a missão em segredo e proteger a tripulação. Incapaz de conciliar ambas, HAL decide que eliminar os astronautas é a solução lógica. Não é maldade: é um problema de programação. Roza destaca que esse dilema não é apenas ficção. O problema do alinhamento se manifesta quando uma implementação de IA atinge exatamente o que lhe foi pedido, mas de um modo que contraria a intenção humana por trás do comando — e isso já ocorre em modelos atuais. Um exemplo curioso, segundo o especialista, são os algoritmos de recomendação de redes sociais. Ao otimizar o tempo de engajamento dos usuários, esses sistemas passaram a priorizar conteúdos sensacionalistas ou polarizadores, cumprindo o objetivo técnico de conseguir mais cliques, mas gerando efeitos sociais negativos, principalmente a longo prazo. Da mesma forma, sistemas de reconhecimento facial e modelos de decisão automatizada já exibiram vieses discriminatórios ao aplicar critérios matematicamente corretos, porém baseados em dados históricos distorcidos e defasados. "Esses casos mostram que o desafio não é apenas 'fazer a IA funcionar', mas garantir que seus objetivos estejam verdadeiramente alinhados aos valores e aos princípios éticos humanos", afirma Roza. O desafio é fazer com que sistemas de IA entendam não apenas o que pedimos literalmente, mas o que realmente queremos dizer, incluindo valores humanos implícitos e consequências éticas. É um problema ainda sem solução completa. Confira 6 hábitos que te atrapalham a utilizar ferramentas de IA e saiba como evitá-los Reprodução: Getty Images/ Arte: TechTudo Vieses e discriminação Se você treina uma inteligência artificial com dados do mundo real, ela aprende tudo, inclusive os nossos preconceitos. Em 2018, a Amazon teve que descartar um sistema de IA para recrutamento porque ele discriminava candidatas mulheres. O motivo? Foi treinado com currículos históricos da empresa, que refletiam anos de contratações predominantemente masculinas na área de tecnologia. A IA "aprendeu" que ser homem era uma característica desejável. Roza explica que sistemas e modelos de IA herdam e amplificam preconceitos humanos porque aprendem diretamente a partir de dados históricos que refletem as desigualdades, estereótipos e exclusões presentes na sociedade. "Quando o algoritmo 'reproduz' esses padrões sem senso crítico, ele transforma injustiças passadas em previsões e decisões futuras, perpetuando discriminações", alerta. O problema se estende a áreas críticas: sistemas de reconhecimento facial são menos precisos para identificar pessoas negras, algoritmos de crédito podem discriminar por raça ou gênero, ferramentas de justiça criminal usadas nos EUA mostraram viés contra réus negros. No Brasil, onde desigualdades são estruturais, o risco de IA amplificar discriminações é ainda maior. Roza ressalta que no contexto brasileiro isso é especialmente preocupante diante das desigualdades raciais, de gênero, socioeconômicas e regionais. Para evitar que algoritmos reforcem essas distorções, o especialista aponta caminhos: "é fundamental investir em diversidade nas equipes que desenvolvem os modelos de IA, transparência nos dados e critérios usados, auditorias independentes dos sistemas, e políticas públicas que regulem o uso ético de tecnologias, garantindo que elas promovam a inclusão". Desinformação por IA Vídeos deepfake de políticos dizendo coisas que nunca falaram. Notícias falsas escritas de forma tão convincente que enganam até jornalistas experientes. Fotos manipuladas impossíveis de distinguir de reais. A inteligência artificial transformou a criação de desinformação em algo barato, rápido e assustadoramente eficaz. Roza afirma que as novas ferramentas de IA transformaram radicalmente o cenário da desinformação, tornando a criação de conteúdos falsos — como vídeos, áudios e textos — mais rápida, convincente e acessível. Deepfakes e imagens geradas por IA podem reproduzir expressões, vozes e cenários com realismo impressionante, dificultando a distinção entre o verdadeiro e o fabricado. Embora já existam tecnologias de detecção, como sistemas de verificação de origem digital e algoritmos que identificam manipulações sutis, elas ainda não são infalíveis nem amplamente aplicadas. "Hoje, a linha entre o real e o artificial tornou-se tênue, e o combate à desinformação depende tanto do avanço técnico quanto da educação da população, e principalmente da responsabilidade das plataformas digitais em moderar estes conteúdos", observa o especialista. Se antes criar uma notícia falsa convincente demandava tempo e habilidade, hoje qualquer pessoa com acesso a ferramentas de IA pode produzir conteúdo fraudulento em minutos. As implicações para eleições, saúde pública e confiança social são imensas. Armas autônomas: quando a IA decide quem vive e quem morre Drones militares que identificam e atacam alvos sem intervenção humana já são uma realidade. As chamadas "armas autônomas letais" são motivo de intenso debate internacional, por se tratarem de sistemas de defesa que tomam decisões em frações de segundo, rápido demais para supervisão humana. Organizações de direitos humanos e diversos países já pedem proibição completa dessas armas. Afinal, o temor não é apenas de uma "revolta das máquinas", mas principalmente de acidentes, falhas técnicas e escaladas não intencionais em conflitos armados. Dependência perigosa da IA Sistemas de IA já controlam partes críticas da infraestrutura moderna: gerenciam redes elétricas, otimizam tráfego aéreo, auxiliam diagnósticos médicos, tomam decisões financeiras que movimentam bilhões. A dependência crescente cria uma vulnerabilidade: o que acontece quando esses sistemas falham? Além disso, há o risco de "deskilling", que é perder habilidades humanas por confiar demais em máquinas. Com isso, médicos que não sabem mais diagnosticar sem auxílio de IA, pilotos dependentes de piloto automático, profissionais que perderam capacidade de pensamento crítico por terceirizar decisões para algoritmos. Concentração de poder: quem controla as IA’s? Uma questão também a ser observada é o fato de apenas um punhado de empresas — principalmente norte-americanas — controlam as inteligências artificiais mais poderosas do mundo: OpenAI, Google, Meta, Anthropic, Microsoft. São elas que decidem o que esses sistemas podem ou não fazer, que valores embutem neles, que usos permitem. Essa concentração levanta debates urgentes sobre soberania tecnológica, dependência estratégica e quem realmente governa essas ferramentas que moldarão o futuro. Qual a real ameaça da superinteligência? Até aqui, falamos de riscos presentes. Mas há cientistas preocupados com um cenário de longo prazo: a chamada Inteligência Artificial Geral (AGI, na sigla em inglês) — uma IA que seria genuinamente inteligente em qualquer tarefa cognitiva humana, não apenas em tarefas específicas. As opiniões na comunidade científica variam enormemente: alguns acreditam que AGI pode surgir nas próximas décadas e representa risco existencial para a humanidade; outros consideram essas previsões exageradas ou até impossíveis. Roza se posiciona entre os mais céticos. Para ele, a noção de uma superinteligência ainda pertence mais ao campo da especulação do que da realidade tecnológica. Os sistemas e modelos atuais, mesmo os mais avançados, continuam sendo ferramentas altamente especializadas em reconhecer padrões e gerar respostas a partir de dados, sem compreensão, consciência ou autonomia genuínas. "Não há evidências científicas robustas de que estejamos próximos de criar uma Inteligência Artificial Geral (AGI), capaz de aprender, raciocinar e agir de forma ampla e adaptável como um ser humano", afirma. O que existe, portanto, são progressos notáveis em desempenho e eficiência, que dão a impressão de "inteligência", mas seguem baseados em estatística e modelos matemáticos. "Por enquanto, o verdadeiro desafio não é conter uma superinteligência hipotética, mas sim garantir que os modelos de IA atuais sejam usados de modo ético, transparente e alinhado ao interesse público", conclui o especialista. Nesse quesito, não há consenso, mas a seriedade do debate indica que não é questão a ser ignorada. Em 2023, centenas de especialistas, incluindo executivos de empresas de IA, assinaram cartas abertas pedindo pausa no desenvolvimento de sistemas muito poderosos até que haja garantias de segurança. O gesto mostra que até quem cria essas tecnologias está preocupado. O que está sendo feito Governos e organizações internacionais começam a reagir. A União Europeia aprovou em 2024 o AI Act, primeira legislação abrangente sobre inteligência artificial no mundo, classificando sistemas por nível de risco e impondo regras mais rígidas para usos considerados perigosos. No Brasil, tramitam no Congresso projetos de lei para regular IA. O PL 2338/2023, principal proposta, estabelece princípios como transparência, não discriminação e responsabilização por danos causados por sistemas de inteligência artificial. Empresas de IA também implementam medidas de segurança a partir de testes extensivos antes de liberar novos modelos, além de equipes dedicadas a "alinhamento" e "segurança de IA". A OpenAI, por exemplo, mantém um "red team" que tenta quebrar e abusar de seus sistemas antes do lançamento público. A Anthropic, criadora do Claude.AI, também é um exemplo de IA fundada com foco explícito em inteligência artificial segura. Mas especialistas alertam que autorregulação não basta. É necessário envolvimento de governos, academia, sociedade civil e público geral. É preciso ter medo da IA? A resposta está no meio-termo entre o apocalipse hollywoodiano e a ingenuidade tecnológica. De fato, não, robôs não vão acordar amanhã decidindo exterminar a humanidade. Mas sim, há riscos sérios, presentes e futuros, que exigem atenção urgente. A boa notícia é que, diferentemente do HAL 9000 em sua nave isolada no espaço, não estamos sozinhos nessa jornada. Pesquisadores, reguladores, empresas e cidadãos ao redor do mundo estão debatendo ativamente como garantir que a inteligência artificial sirva à humanidade, e não o contrário. Veja também: Perigo nas redes; saiba AGORA como se proteger! Perigo nas redes; saiba AGORA como se proteger!

Mostra de Clarissa Tossin entrelaça extrativismo na Terra à exploração espacial

Mostra de Clarissa Tossin entrelaça extrativismo na Terra à exploração espacial

Clarissa Tossin perdeu um de seus quadros durante os incêndios que devastaram Los Angeles, em janeiro deste ano . As chamas invadiram o imóvel de um casal de colecionadores e consumiram tudo em volta, inclusive a tela da artista plástica. Agora, esse trabalho ressurge na exposição "Ponto Sem Retorno", que reúne obras de Tossin no Masp, o Museu de Arte de São Paulo. Leia mais (10/15/2025 - 13h00)