
Mat VellosoVice-presidente de produto da plataforma de desenvolvedores de IA no Google DeepMind
Décadas depois de começar a programar computadores, aos 9 anos, o brasileiro Mat Velloso seria uma das primeiras pessoas a presenciar um marco da tecnologia: o nascimento do ChatGPT, chatbot de inteligência artificial (IA) generativa da OpenAI, que foi lançado em 2022 e abriu as portas para a popularização da tecnologia. Hoje, aos 49 anos, ele lidera um time no principal rival da companhia de Sam Altman, a DeepMind, divisão do Google responsável por seus principais e mais ambiciosos projetos de IA.
O paulistano, criado em Belo Horizonte e com passagem por Brasília para cursar Administração, chegou ao Google com a missão de “conquistar” programadores. À frente da equipe de Relações com Desenvolvedores (DevRel) da DeepMind e do AI Studio, o programador trabalha com o desenvolvimento de modelos como o Gemini e o seu “irmão” menos conhecido, o Gemma, uma IA aberta voltada para desenvolvedores.
Antes disso, ele passou 15 anos na Microsoft, período em que teve contato com o ChatGPT, resultado dos investimentos iniciais de US$ 13 bilhões que a companhia fundada por Bill Gates fez na então desconhecida startup. Da época em que começou a testar o chatbot, Velloso recorda de um desafio que soa impensável na atualidade: convencer Gates de que aquela tecnologia seria duradoura e não apenas mais uma ferramenta “da moda”.
Ao Estadão, o brasileiro não falou só de passado. Ao contrário, para quem vive mergulhado em IA, olhar para frente parece ser o padrão. Ele conversou sobre o estágio atual do desenvolvimento da tecnologia, seu impacto na sociedade e as questões regulatórias que orbitam o tema. Com a perspectiva de quem fez carreira no exterior, também opinou sobre o potencial do País do xadrez global da tecnologia.
Veja os melhores momentos da entrevista.

‘A IA vai acelerar 100 anos em 5. Se o Brasil não surfar essa onda, vai ficar na pré-história’, diz Velloso Foto: Divulgação/DeepMind
Como o Brasil pode se posicionar no cenário global de IA?
Eu tive essa conversa com o (ministro da Fazenda) Fernando Haddad. Quando ele jantou aqui com a gente (na Califórnia), estava muito preocupado com educação primária. Ele disse: “A gente tem de ensinar IA nas escolas”. Eu falei para ele: ”Olha, não tem nada de errado em fazer isso. Você é educador e eu entendo porque você está pensando nisso”. Mas esse investimento, se for feito hoje, vai se pagar em 10 ou 20 anos. O Brasil tem problemas enormes, e a IA necessária para resolver esses problemas está aqui hoje. Eu tenho um senso de urgência pelo Brasil, porque acho que essa onda de IA vai acelerar 100 anos em 5. Se o Brasil não surfar nessa onda, vai ficar na pré-história. Essa é talvez a última oportunidade de o País virar primeiro mundo.
Existe defasagem na formação tecnológica aqui. Para um profissional crescer no mercado de inteligência artificial, como você, é preciso sair do Brasil?
Não. Tem muitas oportunidades no Brasil. Além do próprio Google, tem Nubank, Itaú, Magazine Luiza e muitas outras empresas. Eu saí porque queria conhecer o mundo. Também tem outra coisa: existe a formação em como criar IA e também de como usar IA. E acho que a maioria das pessoas não precisa aprender como criar. A maioria precisa aprender a usar o que já existe e aplicar.
Mas não é preciso fomentar as áreas técnicas?
O Brasil tem universidades que são extremamente competentes, com professores muito bons. Não acho que falta. Mas acho que a profissão de programador vai mudar muito. A IA vai superar a capacidade humana de escrever código. Isso vira de cabeça para baixo todas as ferramentas de desenvolvimento — o ser humano virou o gargalo. Quando o ser humano vira o gargalo, as ferramentas vão ter de operar como um gerente de milhares de programadores. O valor do programador cai ou sobe? Eu acho que sobe e muito. O programador de hoje vai ter de aprender a usar essas ferramentas nesse contexto, mas o conhecimento técnico ainda será necessário.
Deveríamos nos preocupar com a substituição de postos de trabalho por IA?
O AlphaFold, que deu ao Demis Hassabis o Nobel de Química, pega uma sequência de aminoácidos e os dobra numa proteína. Para você fazer isso, geralmente levava um ano de um PhD. O AlphaFold dobrou 200 milhões de proteínas em um ano. Isso é equivalente a 1 bilhão de anos de PhD. 1 bilhão. Quando as pessoas falam: “A IA vai substituir as pessoas”, não tem 1 bilhão de PhDs no mundo para fazer isso em um ano. Não existe. No Brasil, 30 mil pesquisadores usam o resultado desse trabalho. Agora, esse pessoal vai pesquisar medicamentos novos, cura de doenças, reciclagem de plástico. Tudo isso vai ser destrancado com esse conhecimento que foi gerado em um ano. A gente está passando por uma revolução que acho que não existe na história da humanidade. Nem as outras revoluções industriais nem a Renascença deram esse impulso na capacidade de geração de conhecimento. Eu acho que daqui uns anos ninguém vai conseguir ganhar um prêmio Nobel sem IA.
Os modelos LLMs (algoritmos de inteligência artificial que reconhecem, sintetizam e geram linguagem humana) bateram no teto do desenvolvimento?
Eu fui uma das primeiras 20 pessoas a ter acesso ao GPT (IA do ChatGPT), quando estava na Microsoft. Quando a OpenAI mostrou, a gente começou a brincar com ele, gerar poesia, e ficou “nossa, que coisa, né?”. E eu lembro do Kevin Scott, que é diretor de Tecnologia da Microsoft, falando: “Olha, depois vai ter um futuro onde vai vir um GPT-4, que vai ser tão grande, mas tão grande, que a computação exigida vai ser muito pesada. Como alguém vai conseguir usar um negócio desse tão pesado?”. E o que aconteceu nos últimos anos é que os modelos foram otimizando e ficaram mais baratos. Então, essa eficiência aumentou e muitas vezes ouvi especialistas dizendo que a gente tinha chegado ao teto. Tenho certeza absoluta de que não chegamos ao teto. Nunca existiram tantos incentivos para a gente continuar otimizando, destilando, fazendo ficar mais barato, inventando técnicas novas. Agora, tem os modelos de difusão, que geram código instantaneamente em menos de um segundo. Antes isso não era possível. Os primeiros GPTs escreviam devagar, demoravam para responder. Está muito cedo para ficar declarando o teto aqui.
A gente está passando por uma revolução que não existe na história da humanidade. Nem as outras revoluções industriais nem a Renascença deram esse impulso na capacidade de geração de conhecimento
Nesse momento inicial, vocês esperavam que a IA generativa pudesse furar a bolha e se tornar tão popular?
As primeiras pessoas que brincaram com o GPT ficaram muito obcecadas com essa coisa de que ele conseguia fazer rimas e poesia. Eu ficava assim: “gente, como é que você vai pagar a conta desse negócio fazendo poesia?”. Eu fui a primeira pessoa que pediu para ele escrever código. Ele escreveu e eu falei: “Gente do céu, esse negócio escreve código, não é possível”. Lembro que mostrei para o Satya Nadella (CEO da Microsoft), que foi contar para o Sam Altman (CEO da OpenAI). Eles ficaram entusiasmadíssimos e começamos a perceber que as aplicações eram infinitas. A gente estava só começando a descobrir. Uma pessoa que custou a acreditar foi o Bill Gates. Ele não acreditava de jeito nenhum no GPT. Ele achava que aquilo não fazia o menor sentido. E a gente tentando convencê-lo, ele não queria aceitar. Teve um dia que finalmente o Sam Altman conseguiu convencê-lo, mas ele não queria de jeito nenhum aceitar que aquilo era o futuro. Então, as pessoas, mesmo as muito inteligentes, levam tempo para aceitar que o mundo mudou. Para essa geração mais jovem é mais natural, não tem de explicar nada, eles já adotaram aquilo.
Qual é a próxima fase dos LLMs?
Eu acho que uma lição que a gente aprendeu nesse último ano é que os programadores querem total controle. E o problema com os LLMs é que eles têm um controle meio limitado. Então, mais e mais a gente está criando esses mecanismos de controle. Acho que mais gente vai querer ter mais controle sobre como eles se comportam. A outra mudança é que a primeira geração de aplicações que usa LLMs são chatbots, mas fazer o usuário digitar demais é horrível. Uma coisa que aprendemos na indústria de software é que você não deve fazer alguém digitar demais. Agora, com a multimodalidade, você vai passar dessa fase.
Você vê algo além dos LLMs?
Vale lembrar que o mundo ainda tem muitos modelos de machine learning que não são LLMs. O LLM não é essa solução universal para tudo nem nunca vai ser. Mas eu acho que vão emergir variações, como os modelos de difusão sobre os quais falamos bastante no Google I/O (conferência anual da empresa), a gente mostrou o que um modelo de difusão consegue fazer.
O Google não falava anteriormente sobre inteligência artificial geral (AGI, na sigla em inglês, que define um sistema de capacidade humana), mas passou recentemente a falar sobre isso. Por que esse é um objetivo importante para a empresa?
Há 10 anos, quando eu ouvia os especialistas falarem de AGI, eles falavam que ia levar um século, dois séculos. Agora você vê as pessoas falando em 5 anos, 10 anos, né? É de assustar como as previsões mudaram. E não acho que são previsões não realistas. Eu não ficaria surpreso se em 5, 10 anos, a gente presenciar isso. Mas você tem de definir a ideia. Quando falamos em inteligência humana, não usamos mais o conceito de QI, porque ele é muito limitado. Existem vários tipos de inteligência. Um empresário, por exemplo, pensa quais problemas poderia resolver se fosse possível contratar um exército infinito de pessoas. A gente vai curar doenças, reciclar plástico, combater incêndios e fazer coisas que antes levariam séculos para chegar lá. Então, é muito positivo.
Existe uma questão de regulação e de direitos autorais em relação ao treinamento de IAs. Como o Google enxerga isso?
O maior problema é quando as leis não existem. Um dos meus pedidos a vários juízes do Brasil é que eles precisam me ajudar. Eu não quero decidir o que é certo e errado. Ninguém me elegeu, eu não sou político, não sou criador de lei. Não é meu papel decidir o que é certo e o que é errado. Eu preciso que vocês me falem. E muitas vezes a tecnologia está alguns anos à frente da legislação. A gente tem de ter um ponto de vista. Hoje, o Gemini vai gerar um conteúdo e verifica se esse conteúdo já existe na internet. Se ele já existe, a gente bloqueia a resposta. Mas tem casos que começam a ficar absurdos. Por exemplo: se quero testar se um número é primo, conhecimento básico de matemática, o Gemini vai gerar um código para testar se o número é primo. É lógico que esse código muito provavelmente já existe na internet, porque é conhecimento comum. Eu não posso responder porque já existe na internet? É preciso um pouco de bom senso. Não tem como a gente fazer progresso sem a regulamentação. A regulamentação tem de existir e gostaria que ela fosse atualizada. Mas também tem de ter bom senso.