A confiança é uma coisa engraçada. Eu lutei com isso quando criança. Eu não acreditava que era bom o suficiente para me destacar na escola ou no atletismo. Mesmo assim, fui um excelente parceiro nas curiosidades da cultura pop.
Crescer para ser um Designer Mal-humorado aumentou minha autoestima. Descobri um talento para design, desenvolvimento e escrita. O fato de outras pessoas gostarem do meu trabalho me fez sentir capaz. Também comecei a me importar menos com o que as outras pessoas pensam.
No entanto, ainda me sinto constrangido quando estou na presença de uma pessoa confiante. Você sabe, o tipo que poderia vender qualquer coisa para qualquer um. Tenho tendência a duvidar de mim mesmo nessas situações. Talvez esse fator de intimidação seja o motivo pelo qual essas pessoas frequentemente ascendem a cargos de alto poder, mas discordo.
Hoje em dia, não preciso sair de casa para sentir a mesma sensação de insuficiência. Tudo o que preciso fazer é iniciar um aplicativo de inteligência artificial (IA). Ele responderá com um nível de confiança com o qual nós, mortais, só podemos sonhar.
É por isso que considero preocupante a atitude autoconfiante da IA. Assustador, até.
Respostas confiáveis nem sempre significam resultados precisos
Um modelo de IA bem ajustado pode dizer qualquer coisa enquanto mantém a cara séria. OK, não tem rosto (ainda). Mas me escute. Essa coisa poderia lhe dizer que a lua é feita de cream cheese e realmente significa isso. A parte preocupante é que algumas pessoas confiarão na resposta sem questionar.
Vejo essa ousadia ao pedir conselhos de codificação à IA. Compartilharei um trecho de código com erros ou solicitarei um novo do zero. A ferramenta gera código e uma explicação de como funciona. Que atencioso!
Surpreendentemente, acontece que o código gerado em menos de um minuto nem sempre é confiável. Testar os resultados da IA não funciona necessariamente na primeira vez. Ele produz o mesmo problema ou introduz novos.
Apontar essas questões humilha o robô, até certo ponto. A resposta certa parece ser: “Ah, isso mesmo! Esqueci de explicar x, sime z. Veja como consertar isso.
Essa personalidade magnética volta à vida, com uma resposta tão confiante quanto a primeira. O ciclo continua até que a IA acerte ou eu desista.
Nada disso significa que a IA não seja útil. No entanto, o tom das suas respostas dá aos humanos uma falsa sensação de segurança. Grandes modelos de linguagem (LLMs) podem nos convencer de uma forma que a maioria das pessoas não consegue. Assim, isso nos desencoraja do pensamento crítico.
O impacto já está sendo sentido. As gerações futuras que crescerem com esta tecnologia onipresente perderão ainda mais. Para eles, a resposta da IA pode ser a apenas aquele que eles veem.
A IA pode diminuir um pouco?
Eu entendo a situação difícil em que as empresas de IA se encontram. Do ponto de vista do marketing, um aplicativo que fornece respostas a perguntas difíceis deve demonstrar competência. Um tom confiante é uma forma de estabelecer confiança com os usuários.
Não parece haver uma alternativa fácil. Por exemplo, não consigo imaginar que uma resposta tímida transmita as mesmas vibrações positivas. Você consegue imaginar o Gemini do Google respondendo: “Isso provavelmente não vai funcionar, mas tente mesmo assim”?
Também não acredito que ampliar essas pequenas isenções de responsabilidade ajude. Então, qual é a solução? Existem algumas coisas que poder ajuda (observe meu tom semiconfiante).
Faça um trabalho melhor ao citar referências
IA não é mágica. Não evoca conhecimento do cosmos. Ele rastreia sites (às vezes um pouco demais). No entanto, faz um péssimo trabalho ao citar suas fontes de informação.
Alguns aplicativos adicionam notas de rodapé clicáveis, enquanto outros parecem não oferecer referências visíveis. Isso não é bom o suficiente.
As fontes poderiam ser melhor integradas nas respostas da IA. Por exemplo, em vez de dizer:
“Certifique-se de escapar da saída do seu plugin WordPress.”
Poderia ser ajustado para:
“De acordo com documentação oficial do WordPressos autores de plugins devem escapar de tudo que vem de fontes não confiáveis.”
Esta etapa realiza duas coisas. Primeiro, dá crédito à fonte da informação (a coisa educada a fazer). Em segundo lugar, convida os usuários a se aprofundarem no assunto.
Diga-nos o que pode dar errado
Como os LLMs têm muitos dados, aposto que eles podem explicar o pior cenário. Eles poderiam usar essas informações para manter os usuários seguros ao experimentar códigos, cozinhar ou outras atividades potencialmente perigosas.
Assim como a xícara de café que avisa sobre o líquido quente dentro dela, os aplicativos de IA podem fornecer uma lista de verificação de segurança com suas respostas. Lembretes para fazer backup do seu site, por exemplo, podem salvar alguém de um desastre.
É uma técnica comum para escritores e outros criadores de conteúdo. Não devemos presumir que o leitor sabe tudo. Assim, informá-los sobre perigos potenciais faz parte de ser um recurso responsável.
A IA deve obedecer aos mesmos padrões que as suas contrapartes humanas.
Faça perguntas de acompanhamento para fornecer a melhor resposta
Há mais de uma maneira de realizar algo. E alguns assuntos são controversos ou apresentam áreas cinzentas. Essa é a realidade do nosso mundo. A IA deve se esforçar para nos notificar sobre esses casos sem tomar partido.
Ao usar IA para escrever código, notei ocasiões em que ela fornece múltiplas abordagens. É útil, pois posso usar aquele que funciona melhor para mim. Isto deveria se tornar a regra e não a exceção.
Sei que pode ser difícil para um aplicativo fazer isso sem o contexto adequado. Nós, humanos, nem sempre temos clareza sobre o que queremos. Então, por que não nos fazer algumas perguntas complementares? Ou fazer das respostas com múltiplas opções uma experiência de aventura à sua escolha?
Isso promove uma abordagem mais coloquial às tarefas e incentiva o pensamento crítico. Pode até levar a melhores resultados.
IA não precisa ser tão presunçosa
A IA responde às nossas perguntas com grande confiança, independentemente da sua precisão. É uma tendência preocupante, dada a rapidez com que estas ferramentas estão a ser adoptadas. Os humanos que seguirem cegamente os conselhos da IA terão inevitavelmente um rude despertar.
Não consigo ver isso como algo positivo para empresas ou usuários de IA. A confiança é um componente chave para o crescimento. Os usuários migrarão para um aplicativo em que confiam e evitarão aqueles que fornecem informações ruins. Tal como outros produtos de consumo, a fiabilidade é importante para o sucesso final da IA.
Talvez a resposta seja que esses modelos troquem um pouco de conveniência por um processo mais confiável. Nós, humanos, fazemos isso o tempo todo. Talvez essas máquinas possam aprender uma ou duas coisas conosco.
Principal
