Notícias

3 erros que a IA pode cometer no seu negócio, segundo Neil Patel

Apesar de todos os avanços que a tecnologia oferece para a vida dos lojistas, o uso excedido de ferramentas, como o ChatGPT, por exemplo, pode causar consequências inesperadas

O uso de Inteligência Artificial (IA) para criar e selecionar conteúdo por meio do Chat GPT, ou outras ferramentas que simulam a linguagem humana, tem impressionado a web e feito o chatbot conquistar cada vez mais usuários.

Mas uma fala de Neil Patel, uma das principais referências em marketing digital no mundo, durante o Latam Retail Show 2023, indica que em meio a tamanha empolgação é preciso deixar claro que a IA não é perfeita e, assim como nós, pode errar.

Desinformação, conteúdos repetitivos e pouco humanizados, além de uma racionalidade excessiva são os alertas apontados pelo especialista. Veja a seguir:

1 - INFORMAÇÕES DESATUALIZADAS

Patel acredita que, de fato, entraremos em um novo patamar de comunicação, muito apoiado por tecnologias como a IA, mas não completamente guiado por elas. A ideia, segundo o especialista, é aprender como aproveitar ao máximo as possibilidades oferecidas pelas ferramentas, mas também saber como e quando duvidar delas.

Vender também significa informar o consumidor e esse conteúdo precisa ser exato. Nesse sentido, muitos julgam que a tecnologia de IA é precisa, mas não é. É importante considerar, por exemplo, o Chat GPT, que nesse momento só é capaz de fornecer informações atualizadas até 2021.

"O aprendizado da máquina trabalha constantemente para aprimorar a tecnologia, como mecanismos de pesquisa, mas isso ainda é limitado e perigoso para muitos negócios", diz.

Patel alerta que um dos diferenciais do Chat GPT é a sua alta capacidade de interagir com os usuários. Para quem tem pouco contato com o recurso, a percepção é de que a ferramenta tem capacidade de reproduzir, de forma muito fidedigna, a escrita e o estilo de linguagem humana.

E é exatamente nesse ponto que tudo pode dar errado. Essa convicção faz com que o robô pareça que está certo mesmo quando está errado. A maioria dos chatbots, quando se deparam com uma pergunta cuja resposta não conhecem, informam ao usuário desconhecer sobre o assunto.

Já o ChatGPT é capaz de formular respostas com lógica e aparente coerência, mesmo sem que aquilo seja verdade.

2 - CONTEÚDOS SIMILARES E REPETITIVOS

Para quem tem os primeiros contatos com a tecnologia de IA, o conteúdo gerado parecerá perfeito - variado, engajante e inédito.

Entretanto, o especialista aponta que, quando muito exposto às repetições, o conteúdo logo se torna seco e até batido. A impressão que se tem é estar diante de um mesmo conteúdo repetido, escrito de forma similar e genérica.

Ao examinar os detalhes, Patel fala sobre a questão de estilo, uma vez que as IAs "tendem a produzir textos com estilos diferentes dos humanos, como uma linguagem mais formal, bem como tendem a produzir conteúdo sem sentido ou sem relação lógica, nem contexto."

Além disso, as IAs geralmente "não têm a capacidade de citar fontes confiáveis e tendem a produzir textos com padrões repetitivos ou estruturas de linguagem semelhantes."

3 -CONTEÚDO ENVIESADO

Justamente pelo fato de o software ter sido treinado com diferentes conteúdos disponíveis na Internet, a ferramenta pode reproduzir textos elaborados em redes sociais, como postagens em redes sociais. Em meio a um movimento com tanto discurso de ódio, ofensas políticas e culturais é possível que alguns conteúdos reproduzam comentários indesejados, parciais, enviesados e até preconceituosos.

Patel destaca que a própria ferramenta já fez alertas sobre a capacidade do ChatGPT de produzir conteúdo tendencioso. E esse não é um problema exclusivo do chatbot, e acontece com muitas outras IAs treinadas por aprendizado de máquina.

Todos os direitos reservados | © 2024 | NEWWORK CONTáBIL | Política de Privacidade
desenvolvido por