Máquinas podem pensar? Os 70 anos de história que levaram à inteligência artificial dos dias atuais

Máquinas podem pensar? Os 70 anos de história que levaram à inteligência artificial dos dias atuais

Google e Chat GPT não são médicos; conheça os riscos de se informar somente com eles Ao fazer compras na internet, tiro dúvidas sobre o produto com um chat. Não sei identificar com certeza se quem responde é uma pessoa de verdade ou um robô. Na sala de aula, professores discutem como garantir que o conteúdo produzido por seus alunos foi de fato escrito por eles, não por chatbots. Até mesmo ao procurar emprego não está garantido que o recrutador será uma pessoa ou uma inteligência artificial (e se o currículo apresentado foi feito pelo candidato ou, igualmente, por uma IA). Homem ajusta fiação de máquina projetada para usar um tipo de rede neural, na década de 60 Frederic Lewis via Getty Images Está cada vez mais difícil detectar o que é ou não feito por um humano. Essa questão, vivida em escala massiva pela primeira vez na história, já tinha sido antecipada há mais de 70 anos, quando Alan Turing publicou o artigo "Computing Machinery and Intelligence", em 1950. Ele começa com uma pergunta simples e perturbadora: as máquinas podem pensar? Como foi que chegamos a esse ponto, em que ilusões de inteligência desafiam nossa noção do que é humano? A resposta envolve algumas décadas de história da ciência, controvérsias e duelos entre diferentes visões do campo. Para fazer esse resgate, a BBC News Brasil consultou artigos científicos, livros e entrevistou pesquisadores de IA e professores. Turing foi um pioneiro cientista da computação e matemático inglês cujo trabalho inovador é considerado responsável por ter encerrado a Segunda Guerra Mundial antes do previsto. Ele foi condenado à castração química após admitir ter cometido "atos de indecência grave" em 1952. Foi encontrado morto por envenenamento por cianeto em 1954. Uma investigação concluiu que se tratava de suicídio. Christopher Furlong/Getty Images/BBC Máquinas podem pensar? O cientista britânico Alan Turing (1912-1954) é tido como um dos precursores da inteligência artificial — isso em um momento em que, vale lembrar, o termo sequer tinha sido criado. A expressão só se tornaria conhecida mais tarde, em 1956, com o cientista da computação John McCarthy (1927-2011). Ainda assim, as ideias do autor teriam grande influência sobre o campo por décadas. Foi nesse artigo que Turing apresentou o experimento que mais tarde seria chamado de Teste de Turing. Ele descreve primeiro uma versão do que chamou de "Jogo da Imitação": três participantes — um homem, uma mulher e um interrogador, que pode ser de qualquer gênero. O interrogador fica em um cômodo separado e só pode se comunicar por meio de mensagens escritas. Seu objetivo é descobrir quem é o homem e quem é a mulher. Os dois participantes tentam convencê-lo, um dizendo a verdade e o outro tentando enganar. Turing propôs uma variação: substituir um dos dois participantes por uma máquina. Se, após a interação, o interrogador não conseguir distinguir o humano do computador, então se poderia dizer que a máquina "pensa". Em 1951, Turing deu uma palestra na BBC sobre o tema, parte de uma série de falas sobre a ciência emergente da computação, que contou com outros pioneiros da época. Não existe gravação da transmissão de Turing, mas o roteiro original, com suas anotações e marcações manuscritas, permanece no Arquivo Escrito da BBC. O autor faz uma previsão no artigo: de que, em 50 anos (ou seja, por volta dos anos 2000), computadores teriam capacidade para armazenar muito mais palavras, a ponto de que interrogadores não teriam mais de 70% de chance de acertar o teste após cinco minutos de perguntas. Ele também anteciparia o conceito de aprendizado de máquina, ao dizer que, ao invés de programar tudo de uma vez, sistemas deveriam ser criados para aprender com os dados. "Se esse (programa) fosse então submetido a um curso de educação apropriado, obter-se-ia o cérebro adulto. Presumivelmente, o cérebro da criança é algo como um caderno que se compra na papelaria: pouco mecanismo e muitas folhas em branco." "Ele faz algumas previsões. E a conclusão do artigo dele descreve o que foi o desenvolvimento da IA hoje", diz o professor de História e doutor em História Social pela USP Victor Sobreira. A criação do prêmio Turing, conhecido como Nobel da computação, ajudaria ainda mais a consolidá-lo como referência, destaca Sobreira. Mas a ideia de automatizar tarefas humanas é bem anterior a Turing. "Já na mitologia grega havia o deus que criou um autômato, Talos, para proteger a ilha de Creta. Aristóteles, na obra Política, também discutia a possibilidade de seres automáticos ajudarem no trabalho e acabarem com o debate sobre mestres e escravos", conta Anderson Rocha, professor titular do Instituto de Computação da Unicamp. Mas se o termo "inteligência artificial" não é citado no artigo de Turing, onde ele surgiu, afinal? Uma réplica funcional do computador Apple 1 original, em exibição no Museu da Apple em 16 de março de 2023, em Varsóvia, Polônia. Getty Images/BBC Jogada de marketing? Karen Hao, jornalista e autora do livro Empire of AI (veja entrevista da BBC em vídeo com a autora), lembra que o termo "inteligência artificial" surgiu em 1956, durante um encontro no Dartmouth College que reuniu cerca de vinte cientistas — "todos homens brancos", em suas palavras — vindos da matemática, da criptografia e das ciências cognitivas. John McCarthy, professor que organizou o evento, inicialmente chamava o campo de automata studies, o estudo de máquinas de comportamento automático. Mas o nome não atraía atenção. Ao buscar uma expressão mais chamativa, cunhou "artificial intelligence". A escolha foi, segundo a autora, uma estratégia de marketing: "inteligência" soava sofisticada, desejável e benéfica, capaz de mobilizar financiamento e despertar ambição científica. A troca funcionou — o novo termo deu identidade a uma disciplina nascente e passou a atrair recursos e prestígio. "Dartmouth acabou virando um mito fundador, mas na prática foi um encontro de dois meses sem tanto avanço concreto", diz o professor Victor Sobreira. "Mas estavam ali os que depois se tornaram grandes nomes da área nos EUA, fundadores de centros como o do MIT e Stanford, que definiram a pesquisa na área por décadas", disse ele, destacando os nomes de John McCarthy e Marvin Minsky. "Ali já nasce um pouco dessa questão do hype associado à IA", diz Anderson Rocha, da Unicamp. Alguns pesquisadores criticam essa visão de "mito de origem" da IA, por fazer parecer que a ideia teria nascido de um único projeto acadêmico conduzido por matemáticos e cientistas da computação. Um artigo publicado em 2023 na revista BJHS Themes, por exemplo, aponta que as bases da IA também se relacionam a outras trajetórias históricas, como a industrialização, o militarismo e o colonialismo. Esses vínculos aparecem, segundo os autores, na dependência de minerais extraídos em condições precárias em países africanos e na reprodução de lógicas coloniais de classificação de pessoas e territórios, por exemplo. Mas como definir exatamente o que é inteligência? Como reproduzi-la em um computador? A Faculdade de Dartmouth, nos EUA. O termo inteligência artificial foi cunhado durante evento na instituição, na década de 50. Getty Images Como definir inteligência? A batalha de duas visões Em Empire of AI, Karen Hao conta que após a conferência de Dartmouth, dois campos concorrentes surgiram: o primeiro, conhecido como simbolistas, acreditava que a inteligência vem do conhecimento. Por isso, a IA deveria codificar representações simbólicas do conhecimento do mundo em máquinas, criando assim os chamados expert systems. 'Foi daí que nasceram linguagens como o Prolog (linguagem de programação dos anos 70 baseada em regras para deduzir respostas) e os sistemas especialistas dos anos 1980, muito usados, por exemplo, na aviação", explica Anderson Rocha, professor titular do Instituto de Computação da Unicamp. O outro campo era o dos conexionistas, que acreditam que a inteligência vem do aprendizado. Ou seja, para desenvolver a IA seria necessário criar sistemas de aprendizado de máquina que imitem como o cérebro humano processa informações. Foi daí que surgiram as redes neurais, que tentam simular as conexões do cérebro e formam, hoje, a base da IA moderna. Em julho de 1958, o jornal americano The New York Times começa o texto de uma reportagem com um anúncio bombástico: a invenção do protótipo de um computador que poderia, no futuro, "andar, falar, ver, escrever, se reproduzir e ser consciente de sua existência", nas palavras do jornal. O jornal se referia ao Perceptron, projeto desenvolvido pelo professor de psicologia Frank Rosenblatt, da Universidade de Cornell, que disse que a máquina seria o primeiro dispositivo a "pensar como o cérebro humano", que "cometeria erros, mas ficaria mais inteligente na medida em que ganhasse experiência", segundo a reportagem. O sistema era capaz de identificar padrões para diferenciar cartas. Rosenblatt foi pioneiro na construção de uma máquina seguindo o princípio das redes neurais, em que um elemento digital é comparável a um impulso elétrico emitido pelo neurônio, conforme descreve Victor Sobreira em artigo que organiza a literatura sobre a história da IA. Só que essa abordagem, na época em que foi criada, era considerada muito cara, sem poder computacional nem dados suficientes. Marvin Minsky, um dos organizadores do evento em Dartmouth, ridicularizava ideias de colegas conexionistas, que disputavam os mesmos financiamentos. Minsky seria coautor de um livro que, segundo a jornalista Karen Hao, teria ajudado a limitar o financiamento do campo concorrente por décadas. "Durante muitos anos, a abordagem conexionista ficou atrás da simbólica", diz Anderson Rocha, da Unicamp. "Com a explosão da internet, das redes sociais e das GPUs (unidade de processamento gráfico), esse cenário mudou. Passamos a ter muitos dados e muito mais capacidade de processamento. Isso empoderou a ideia original das redes neurais e fez a inteligência artificial conexionista ganhar protagonismo econômico e social", afirma o professor. "Hoje a simbólica está em desvantagem porque é muito difícil traduzir o conhecimento de um especialista em regras lógicas. Já a conexionista aprende a partir de dados em grande escala. Mas ela também tem limitações. Por isso, há um movimento atual tentando unir as duas correntes — o que chamamos de IA neurossimbólica", afirma. Nem só o Perceptron ganhou espaço da imprensa à época. Um chatbot, representando a corrente dos simbolistas, surpreenderia com sua capacidade de simular conversas com humanos. Eliza, o chatbot que 'enganou' ao simular uma conversa Em 1966, anos depois da notícia sobre o Perceptron estampar o New York Times, outro sistema chamou a atenção da mídia: Eliza, um chatbot que rodava em uma máquina gigante. Como lembra a jornalista Karen Hao, tratava-se de uma IA simbólica baseada em regras simples, capaz apenas de simular atenção e responsividade. O nome vinha de Eliza Doolittle, a florista do filme My Fair Lady e interpretada por Audrey Hepburn que, ao mudar fala e maneiras, conseguia se passar por uma pessoa da elite. Em geral, o programa demonstrava interesse no que o usuário disse e então pedia mais informações. Um exemplo citado no livro Empire of AI é essa conversa abaixo, extraída de um artigo produzido pelo criador do chatbot, Joseph Weizenbaum: Usuário: Os homens são todos iguais. ELIZA: de que maneira Usuário: Eles estão sempre nos incomodando com uma coisa ou outra. ELIZA: você pode pensar num exemplo específico Usuário: bem, meu namorado me fez vir aqui. ELIZA: seu namorado te fez vir aqui Usuário: Ele diz que estou deprimida a maior parte do tempo ELIZA: Sinto muito saber que você está deprimida Usuário: É verdade, estou infeliz. ELIZA: Você acha que vir aqui te ajudará a não ser infeliz? O experimento testava se humanos poderiam acreditar em uma ilusão de inteligência — e funcionou. Segundo a pesquisa de Karen Hao, alguns psiquiatras chegaram a prever que, em poucos anos, seria possível criar uma psicoterapia automatizada, algo que hoje já é tentado com as IAs atuais. Mas por que a pesquisa na área não evoluiu na velocidade que se previa? As duras críticas que congelaram o financiamento da pesquisa em IA por anos Victor Sobreira conta, em seu artigo que resgata a história da IA, que duras críticas ao campo produzidas entre os anos 60 e 70 contribuíram para o corte do financiamento de pesquisas na área por décadas. Uma delas, de 1965, foi feita em um estudo do filósofo Hubert Dreyfus, professor da Universidade da Califórnia, em Berkeley. O título provocativo, Alchemy and Artificial Intelligence já dava o tom do que viria a seguir. Para Dreyfus, não se deveria investir mais em pesquisas que buscassem espelhar o comportamento humano em máquinas digitais, já que os objetivos prometidos estavam longe de serem alcançados. Em outro trabalho, de 1973, o matemático James Lighthill apontou o que chamou de explosões combinatórias: por mais complexos que fossem, esses sistemas eram baseados em regras. Tal abordagem só funcionaria, portanto, em situações controladas e com poucas variáveis, como em um jogo, mas não em situações do mundo real. "Nos anos 1970 e 1980 tivemos os chamados invernos da inteligência artificial, períodos em que o financiamento caiu muito e houve menos interesse social e político na área", explica Anderson Rocha, da Unicamp. Vitórias de IA sobre humanos em jogos impulsionam atenção ao campo Alguns dos grandes momentos da IA, ao menos no quesito chamar atenção do grande público, aconteceram em momentos em que máquinas derrotaram humanos em jogos. "Durante todo o período de desenvolvimento da IA, jogos foram importantes e continuam sendo importantes, porque em jogos você tem uma simulação de uma situação, muitas vezes que você conhece. Com regras e ambiente relativamente controlado você consegue avaliar bem os seus algoritmos, as suas técnicas", diz Anderson Rocha, professor da Unicamp. Uma reportagem da BBC lembra um episódio que simboliza o início dessa relação entre jogos e IA. O texto conta que, em 1968, um campeão escocês de xadrez, David Levy, estava em uma festa que tinha como anfitrião Donald Michie, fundador do Departamento de IA da Universidade de Edimburgo. Levy conversava com o inventor do termo inteligência artificial, John McCarthy, que o desafiou para uma partida. Levy derrotou o americano McCarthy, mas o pesquisador foi embora com uma promessa: de que, em 10 anos, computadores teriam sucesso onde ele falhara. Levy prometeu, então, pagar US$ 500 caso perdesse para um computador antes de 1979. "Eu ganhava menos de mil dólares por ano, mas estava muito confiante", lembrou. Em 1978, Levy enfrentou um computador e disputou cinco partidas, das quais venceu três. Perderia somente em 1989, em uma série promovida pela Sociedade Britânica de Xadrez, em Londres, contra um programa chamado Deep Thought (Pensamento Profundo). Mas o episódio que se tornaria mundialmente conhecido é o da partida em que o computador da IBM Deep Blue derrotaria o campeão mundial russo Garry Kasparov, em 1997. "A vitória do Deep Blue demonstrou que os computadores podem superar os seres humanos em jogos altamente estratégicos, há muito considerados um marco da inteligência humana", descreve um artigo sobre a história da IA publicado no site da IBM. Outro marco foi a vitória do AlphaGo, em 2016, contra o campeão mundial do jogo de Go, considerado muito mais complexo que o xadrez por oferecer cerca de 200 possibilidades de jogada a cada turno. No ano seguinte, outra equipe do Google publicaria um artigo que apresentaria as bases da IA generativa, base de sistemas de hoje como o ChatGPT e o Gemini. O que dizia esse artigo? Transformer: a tecnologia que deu origem à IA generativa Em 2017, uma equipe do Google apresentou o Transformer, um novo tipo de rede neural capaz de captar o contexto de uma frase. Na prática, é como se a máquina previsse as palavras mais prováveis de uma sentença. Diferente dos modelos anteriores, que liam palavra por palavra, o Transformer olha para o todo e identifica quais trechos são mais importantes. É como se, ao ler um texto, fosse possível destacar de imediato as palavras-chave que dão sentido à mensagem. O artigo recebeu o título Attention is All You Need ("Atenção é tudo de que você precisa"). No exemplo "o gato sentou no tapete porque estava cansado", o modelo conecta diretamente "estava cansado" a "gato", sem precisar seguir rigidamente a ordem palavra por palavra. Esse mecanismo, chamado de autoatenção (self-attention), permite que o computador relacione cada palavra com todas as outras de uma frase ou trecho, e não apenas com a que vem antes ou depois. Assim, consegue entender conexões que podem estar bem distantes no texto. É isso que torna possível responder perguntas longas ou manter uma conversa coerente: o modelo dá mais peso às partes mais relevantes do que já foi dito. No artigo original, o modelo foi testado em tarefas de tradução. Mas Ilya Sutskever, cofundador e cientista-chefe da então ainda pequena OpenAI, enxergava na novidade um potencial que ia muito além. Elon Musk e Sam Altman, cofundadores da OpenAI Michael Kovac/Getty Images 'Aprendendo' com os livros No livro Empire of AI, Karen Hao relata que Ilya Sutskever, cofundador da OpenAI, enxergou no artigo do Google sobre Transformers um potencial maior que tradução ou buscas online: a chance de avançar o deep learning, técnica que usa redes neurais com muitas camadas para aprender padrões complexos a partir de grandes volumes de dados. Foi nesse cenário que pesquisadores da organização decidiram expandir o foco. Um artigo publicado pela OpenAI em 2018 mostraria que, ao treinar um modelo de linguagem para a tarefa genérica de prever a próxima palavra em milhões de frases, ele adquiria conhecimento que depois podia ser reaproveitado em várias outras tarefas, como responder perguntas. Para isso, treinaram a rede com mais de sete mil livros não publicados de gêneros diversos (de um dataset chamado BooksCorpus). A mudança mostrou que, ao tentar gerar frases convincentes, o sistema absorvia nuances profundas da linguagem. Sutskever resumia essa ideia dizendo que "inteligência é compressão": criar texto forçava a máquina a condensar conhecimento sobre o mundo. Em 2018, a OpenAI lançou o GPT-1 (Generative Pre-Trained Transformer). O "pre-trained" no nome indicava que o modelo foi treinado em um grande conjunto genérico de textos, para depois ser ajustado a tarefas específicas. O modelo validou a ideia e abriu caminho para versões mais robustas. Naquele momento a OpenAI ainda tinha apenas três anos de vida. Tinha sido fundada em 2015 por nomes como Elon Musk e Sam Altman, com a promessa de desenvolver IA de forma aberta e em benefício da humanidade. Musk já era um dos maiores nomes da tecnologia. Já Sam Altman teve uma carreira de sucesso graças ao desenvolvimento de aplicativos e ao investimento em startups. Em 2018, Musk deixou a OpenAI devido a conflitos internos. Os parceiros da OpenAI perceberam que, para atingir seus objetivos, precisariam transformar a organização sem fins lucrativos em uma empresa de propósito misto, com um componente com fins lucrativos que pudesse gerar recursos financeiros. Do GPT-1 em diante, foi uma questão de escala, com cada vez mais parâmetros. Quanto mais parâmetros, maior a capacidade do modelo de capturar nuances da linguagem quando é alimentado com grandes volumes de texto. Em 2022, chegaria ao GPT-3.5, que se tornaria a base do popular ChatGPT. Ilya Sutskever viu no artigo do Google potencial para alavancar pesquisas sobre deep learning Kimberly White/Getty Images A IA generativa chegou ao limite? Quando a OpenAI lançou seu mais recente modelo, o GPT-5, em agosto de 2025, havia a expectativa de um grande salto tecnológico, como a evolução vista entre os modelos 3 e 4. Mas críticos dizem que isso não foi alcançado. O Financial Times publicou um texto com o título "Is AI hitting a wall?" (A IA está batendo em uma parede?). Uma das críticas é que o ganho entre uma versão e outra tem sido conquistado com uma fórmula simples, de aumentar o número de dados usados e poder de computação. Mas que essa fórmula tem limites. Mais recentemente, Sam Altman, da OpenAI, recebeu críticas pelo lançamento de um aplicativo que usa inteligência artificial para geração de vídeos. Na quarta-feira (01/10) ele compartilhou, em sua conta do X, uma dessas críticas, que dizia: "Sam Altman há duas semanas nós precisamos de 7 trilhões de dólares e 10GW (gigawats, em referência ao consumo de energia da IA) para curar o câncer. Sam Altman hoje: Estamos lançando vídeos de AI slop (de baixa qualidade) comercializados como anúncios personalizados." Altman respondeu que entende a mensagem, mas que a empresa precisa de capital para construir uma IA "capaz de fazer ciência." "Também é bom mostrar às pessoas novas tecnologias/produtos interessantes ao longo do caminho, fazê-las sorrir e, com sorte, ganhar algum dinheiro, dada toda essa necessidade de computação", escreveu ele. Sam Altman rebate críticas que recebeu no X por lançamento de app de vídeos criados por IA Reprodução "Modelos como o GPT-5, o novo Gemini e o Claude são fantásticos, mas não conseguem lidar com aspectos básicos do raciocínio humano, como o senso comum, a noção de causa e consequência ou a capacidade de imaginar cenários contrafactuais", diz Anderson Rocha, professor titular do Instituto de Computação da Unicamp. "Isso não é algo que vai ser trazido a partir de dados. Chegamos no limite", diz. Outro desafio é reduzir a dependência de grandes volumes de informação e de recursos computacionais. "Precisamos chegar à performance atual, mas usando menos dados e menos energia, ou formas mais inteligentes de aprendizado que capturem padrões ainda não identificados", diz Rocha. Há ainda implicações sociais e políticas. "Os sistemas precisam tomar decisões mais explicáveis, auditáveis e menos enviesadas, de forma a não reproduzir discriminações contra minorias ou grupos específicos." Sobre a possibilidade de alcançar a inteligência humana, ele é cético: "Não sabemos, até porque a definição de inteligência é multifacetada. Envolve aspectos emocionais, sociais, psicológicos e políticos." 'A história da IA ainda está por ser construída' Quando o pesquisador Victor Sobreira começou a buscar a literatura sobre a história da IA, percebeu que eram os próprios pesquisadores do campo que contavam sobre essa trajetória, não historiadores. " A história da IA ainda está por ser construída de forma rigorosa, indo atrás dos arquivos, não apenas se baseando nos relatos dos próprios pesquisadores", diz. "É quase uma história autorreferencial." Em seu artigo, Sobreira defende que as fontes e a historiografia sobre IA são "extremamente problemáticas", já que foram, muitas vezes, "produzidas e construídas por pessoas próximas dos pesquisadores abordados, ocasionalmente até com financiamento dos objetos da pesquisa." Ele destaca que muitas das ideias presentes nessa literatura estariam desconexas de seu contexto político e social. E cita, como exemplo, a proximidade do campo com as forças militares norte-americanas durante a Guerra Fria. "O exército norte-americano tinha um interesse direto no assunto. Investiu muito dinheiro para além também de empresas privadas. Encontrei pouco material que se aprofunda diretamente nessa relação."

Dia D de Multivacinação com foco contra HPV e sarampo acontece neste sábado (18); veja onde se vacinar

Dia D de Multivacinação com foco contra HPV e sarampo acontece neste sábado (18); veja onde se vacinar

Cada dose de vacina é um passo a mais para a sua saúde Banco de imagens O Dia D de Multivacinação da campanha de 2025 acontece neste sábado (18), em João Pessoa e Campina Grande. A ação, promovida pela Secretaria de Estado da Saúde (SES), continua até o dia 31 de outubro e tem foco na atualização da caderneta vacinal de crianças e adolescentes menores de 15 anos. A campanha faz parte da estratégia do Ministério da Saúde para ampliar as coberturas vacinais e prevenir doenças imunopreveníveis. De acordo com a SES, todas as vacinas previstas no calendário básico da criança e do adolescente estarão disponíveis nas unidades de saúde dos 223 estados da Paraíba. Clique aqui para seguir o canal do g1 PB no WhatsApp O objetivo do Dia D de Multivacinação é alcançar aqueles que não receberam a vacina na idade recomendada entre 9 e 14 anos. "Outra estratégia que também será fortalecida com a multivacinação é a intensificação da vacinação contra o sarampo, voltada para pessoas de até 59 anos, diante do risco de reintrodução da doença no país, especialmente por conta de surtos em países vizinhos ", explicou Márcia Mayara, chefe do Núcleo Estadual de Imunizações da SES. Veja os vídeos que estão em alta no g1 Além da atualização vacinal de rotina, a Paraíba terá focos estratégicos na vacinação contra o Sarampo e o HPV. “A campanha dará um novo impulso à estratégia de resgate de adolescentes de 15 a 19 anos que ainda não foram vacinados contra o HPV, uma ação iniciada no primeiro semestre de 2025 e prorrogada até dezembro", afirmou Márcia Mayara. Locais de vacinação em João Pessoa Home Center Ferreira Costa – Todas as doses do calendário de rotina; – Influenza (Toda população acima de 6 meses); – Covid-19 XBB (Crianças de 6 meses até 4 anos, 11 meses e 29 dias e, acima dos 5 anos, as doses são exclusivamente para quem faz parte dos grupos prioritários) – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados. Horário: 8h às 16h Shopping Sul – Todas as doses do calendário de rotina; – Influenza (Toda população acima de 6 meses); – Covid-19 XBB (Crianças de 6 meses até 4 anos, 11 meses e 29 dias e, acima dos 5 anos, as doses são exclusivamente para quem faz parte dos grupos prioritários) – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados. Horário: 8h às 16h Shopping Tambiá – Todas as doses do calendário de rotina; – Influenza (Toda população acima de 6 meses); – Covid-19 XBB (Crianças de 6 meses até 4 anos, 11 meses e 29 dias e, acima dos 5 anos, as doses são exclusivamente para quem faz parte dos grupos prioritários) – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados. Horário: 8h às 16h Centro Municipal de Imunização (CMI) – Funcionará exclusivamente para atendimentos de urgência, realizando a aplicação das vacinas antitetânica e antirrábica. Horário: 8h às 12h Policlínicas Municipais – Todas as doses do calendário de rotina; – Influenza (Toda população acima de 6 meses); – Covid-19 XBB (Crianças de 6 meses até 4 anos, 11 meses e 29 dias e, acima dos 5 anos, as doses são exclusivamente para quem faz parte dos grupos prioritários) – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados. – Dengue (Para crianças e adolescentes de 10 a 14 anos) Horário: 8h às 12h Unidades de Saúde da Família (USFs) – Todas as doses do calendário de rotina; – Influenza (Toda população acima de 6 meses); – Covid-19 XBB (Crianças de 6 meses até 4 anos, 11 meses e 29 dias e, acima dos 5 anos, as doses são exclusivamente para quem faz parte dos grupos prioritários) – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados. – Dengue (Para crianças e adolescentes de 10 a 14 anos) Horário: 8h às 12h Serviços que não irão funcionar: USF Alto do Céu II (localizada no Distrito Sanitário VI) Locais de vacinação em Campina Grande Parque da Criança – Todas as vacinas do Calendário Nacional de Imunização; – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados; – Sarampo (1 a 59 anos, não vacinados ou com esquema incompleto). Horário: 8h às 16h Casa da Vacina (Hospital Municipal Pedro I) – Todas as vacinas do Calendário Nacional de Imunização; – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados; – Sarampo (1 a 59 anos, não vacinados ou com esquema incompleto). Horário: 8h às 20h Terminal de Integração – Todas as vacinas do Calendário Nacional de Imunização; – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados; – Sarampo (1 a 59 anos, não vacinados ou com esquema incompleto). Horário: 8h às 18h Partage Shopping – Todas as vacinas do Calendário Nacional de Imunização; – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados; – Sarampo (1 a 59 anos, não vacinados ou com esquema incompleto). Horário: 15h às 20h Unidades Básicas de Saúde (UBS), Policlínicas e ISEA – Todas as vacinas do Calendário Nacional de Imunização; – HPV para o público de 9 a 19 anos – Estratégia de Resgate de Não Vacinados; – Sarampo (1 a 59 anos, não vacinados ou com esquema incompleto). Horário: 8h às 12h Vídeos mais assistidos do g1 da Paraíba

Morre aos 86 anos a atriz Samantha Eggar, indicada ao Oscar por ‘O Colecionador’

Morre aos 86 anos a atriz Samantha Eggar, indicada ao Oscar por ‘O Colecionador’

A atriz britânica Samantha Eggar, indicada ao Oscar por O Colecionador (1965), morreu aos 86 anos em sua casa em Los Angeles. A morte foi confirmada por sua filha, a também atriz Jenna Stern, que afirmou que a mãe vinha enfrentando uma doença havia cinco anos. Vencedora de concurso em 1988 acerta mistério de Odete Roitman de novo em 2025 “Minha mãe faleceu na noite de quarta-feira, em paz, cercada pela família. Eu estava ao lado dela, segurando sua mão e dizendo o quanto era amada“, escreveu Jenna nas redes sociais nesta sexta-feira, ao compartilhar fotos da “longa e fabulosa vida” de Samantha. Nascida em março de 1939, em Hampstead, no norte de Londres, Samantha Eggar era filha de pai britânico e mãe de origem holandesa e portuguesa. Estudou moda e arte na Thanet School of Art antes de ingressar na Webber Douglas Academy of Dramatic Art, onde se formou atriz. Seu papel de destaque veio nos anos 1960, ao contracenar com Terence Stamp em O Colecionador, que lhe rendeu uma indicação ao Oscar de melhor atriz. Eggar também atuou em Walk, Don’t Run (1966) e ao lado de Rex Harrison em Doutor Dolittle (1967). Nos anos 1970 e 1980, consolidou-se como ícone dos filmes de terror, com participações em títulos como The Dead Are Alive!, The Uncanny e Curtains. Eggar também fez aparições em séries de sucesso, como Star Trek, e permaneceu ativa na TV até o fim da carreira.

Enviado do Kremlin propõe 'túnel Putin-Trump' para ligar a Rússia aos EUA

Enviado do Kremlin propõe 'túnel Putin-Trump' para ligar a Rússia aos EUA

Putin rebate declaração de Trump sobre Rússia ser ‘tigre de papel’ A Rússia e os Estados Unidos deveriam construir um túnel ferroviário batizado de “Putin-Trump” sob o Estreito de Bering para ligar os dois países, impulsionar a exploração conjunta de recursos naturais e “simbolizar unidade”, sugeriu um enviado do Kremlin. A proposta foi apresentada por Kirill Dmitriev, representante de investimentos do presidente Vladimir Putin e chefe do fundo soberano russo RDIF. O plano prevê um megaprojeto de US$ 8 bilhões, financiado por Moscou e “parceiros internacionais”, para erguer uma ligação ferroviária e de carga de 112 km em menos de oito anos. Dmitriev, que lidera uma ofensiva diplomática para reaproximar Moscou e Washington, lançou a ideia na noite de quinta-feira, após uma conversa telefônica entre Putin e o presidente dos EUA, Donald Trump. Os dois concordaram em se reunir em Budapeste para discutir formas de encerrar a guerra na Ucrânia. Foto de 15 de agosto de 2025 - Putin e Trump durante cúpula no Alasca REUTERS/Kevin Lamarque “O sonho de uma ligação entre os EUA e a Rússia pelo Estreito de Bering é antigo — desde a ferrovia Sibéria-Alasca de 1904 até o plano russo de 2007. O RDIF analisou as propostas existentes, incluindo a rota EUA-Canadá-Rússia-China, e apoiará a mais viável”, escreveu Dmitriev no X. Com 82 km de largura em seu ponto mais estreito, o Estreito de Bering separa a remota região russa de Chukotka do Alasca. A ideia de interligar os continentes circula há pelo menos 150 anos. No meio do estreito estão as ilhas Diomede — uma russa e outra americana — distantes apenas 4 km uma da outra. Dmitriev, que mantém interlocução com Steve Witkoff, enviado especial de Trump, também sugeriu que grandes companhias de energia norte-americanas participem dos projetos russos no Ártico. Segundo ele, o túnel poderia ser construído pela The Boring Company, empresa de infraestrutura do bilionário Elon Musk. “Imagine conectar EUA e Rússia, as Américas e a Afro-Eurásia com o túnel Putin-Trump — uma ligação de 70 milhas que simboliza a unidade. O custo tradicional seria superior a US$ 65 bilhões, mas a tecnologia da @boringcompany poderia reduzi-lo para menos de US$ 8 bilhões. Vamos construir o futuro juntos”, escreveu Dmitriev no X, dirigindo-se a Musk. Nem Musk nem Trump responderam publicamente. Além do túnel em si, o projeto exigiria pesados investimentos em infraestrutura nos dois lados do estreito — uma vez que estradas e ferrovias em Chukotka são escassas. Dmitriev lembrou ainda que, durante a Guerra Fria, chegou a ser proposto um projeto semelhante, batizado de “Ponte da Paz Mundial Kennedy-Khrushchev”, sobre o Estreito de Bering. Ele publicou um esboço da época e um mapa com o possível traçado do novo túnel. “O RDIF já investiu e construiu a primeira ponte ferroviária entre Rússia e China. Agora é hora de ir além e conectar continentes pela primeira vez na história da humanidade. É hora de unir Rússia e Estados Unidos”, declarou Dmitriev.

Neymar já faz as malas no Santos e pede a Messi para jogar no Inter Miami

Neymar já faz as malas no Santos e pede a Messi para jogar no Inter Miami

Neymar fala com Messi, se oferece para jogar no Inter Miami e reacende o sonho de reviver o trio mais temido do futebol moderno. Segundo notícias divulgadas por veículos como TNT Sports e The Sun, o brasileiro procurou o amigo argentino para manifestar o desejo de vestir a camisa do clube americano e reeditar, nos Estados Unidos, a parceria que encantou o mundo no Barcelona. A motivação, segundo as fontes, seria dupla: reencontrar Messi e Suárez — companheiros dos tempos de glória — e preparar o terreno para disputar em casa a Copa do Mundo de 2026. O rumor surge num momento delicado da carreira de Neymar, que ainda não se recuperou totalmente da lesão e enfrenta críticas pesadas pelo baixo rendimento no Santos. Contratado com status de salvador, o camisa 10, que ganha mais de 20 milhões de reais por mês, pouco entregou até aqui. E o contraste ficou ainda mais evidente depois que o Santos venceu o Corinthians com autoridade — e sem Neymar em campo. A vitória convenceu e reforçou a sensação de que o time está aprendendo a jogar sem depender do craque, o que torna a hipótese de saída ainda mais plausível. De acordo com o noticiário internacional, Neymar teria dito a Messi que considera o Inter Miami o ambiente ideal para recuperar a forma física e emocional. A liga americana oferece menos pressão e um calendário mais leve, algo que o jogador julga essencial para prolongar sua carreira. Além disso, há o componente emocional: o reencontro com Messi e Suárez, ídolos que formaram com ele o lendário trio “MSN”, daria um toque simbólico à reta final de suas trajetórias. Carlo Ancelotti, técnico da Seleção Brasileira, observa à distância, mas já enviou um recado público: Neymar só voltará a vestir a camisa da seleção se estiver em plena forma. O treinador conta com o atacante para o Mundial de 2026, mas exige regularidade, ritmo de jogo e comprometimento. Nesse contexto, a ida para o futebol dos Estados Unidos pode ser vista tanto como fuga quanto como estratégia — uma tentativa de se reinventar longe da pressão do torcedor brasileiro e das críticas que se tornaram rotina desde sua volta ao país. Por ora, o Inter Miami não confirma negociações. A liga americana também impõe obstáculos financeiros: o teto salarial da MLS é rígido, e a chegada de mais uma estrela exigiria manobras complexas. Mesmo assim, a simples possibilidade já movimenta o noticiário esportivo e as redes sociais, reacendendo o imaginário coletivo em torno do trio que marcou época no futebol europeu. O retrospecto do trio MSN no Barça: * Atuação conjunta por três temporadas (2014/2015 a 2016/2017). * Formado com a chegada de Luis Suárez em 2014, um ano após Neymar. * Primeira temporada culminou na Tríplice Coroa: Campeonato Espanhol, Copa do Rei e Liga dos Campeões. * Total de 364 gols marcados em todas as competições (Messi 153, Suárez 121, Neymar 90). * 173 assistências no período. * Nove títulos conquistados, incluindo 1 Liga dos Campeões, 2 La Ligas, 3 Copas do Rei, 1 Mundial de Clubes, 1 Supercopa da UEFA e 1 Supercopa da Espanha. * Maior temporada: 2015/2016, com 131 gols combinados.