Por anos, algoritmos e softwares vêm coletando posts no Twitter (TWTR34) e comentários publicados por investidores nos fóruns do Reddit diante da crença entre seus programadores e também entre gestores de que permitem antecipar movimentos do mercado.
Em princípio, faz sentido. Basta ver o efeito que um post de Elon Musk pode ter sobre as ações da Tesla, do bitcoin (BTC) ou de outros ativos. O mesmo valia para o que escrevia Donald Trump, ex-presidente dos Estados Unidos, antes de ser banido do Twitter. Além do mais, a informação coletada online garantiria uma diversidade de fontes e maior capacidade de captar o sentimento dos investidores, antecipando movimentos nos ativos e, claro, lucrando com isso.
Algoritmos nada inteligentes
O problema para quem quer ganhar dinheiro com o que é publicado nas redes sociais é que estes sistemas são menos inteligentes do que parecem. Para decepção de quem acredita neles, não seria errado dizer que na verdade são nada inteligentes.
É a conclusão de um estudo de seis pesquisadores – Yong Xie, Sanmi Koyejo (University of Illinois), Dakuo Wang, Pin-Yu Chen, Sijia Liu (IBM), este último também professor da Michigan State University) e Jinjun Xiong (State University of New York) -, ainda em pré-impressão, sem revisão pelos pares, mas que vem chamando atenção pelas conclusões.
Como lembra o trabalho, os algoritmos de machine learning, isto é, que aprendem a ser mais eficientes ao longo de determinado processo, são vulneráveis a ataques adversários ou ataques de envenenamento, como também são conhecidos. São inimigos da inteligência artificial, se aproveitando de vulnerabilidades para induzir um modelo ao erro.
Mensagens mal intencionadas, fake news ou mesmo trollagem ao estilo das postagens de Elon Musk e Donald Trump têm a mesma capacidade, de acordo com o trabalho. Para ilustrar, os pesquisadores apontam a falsa informação, postada em 2013, de que o ex-presidente dos Estados Unidos Barack Obama teria ficado ferido em uma explosão na Casa Branca. A reação do mercado à notícia apagou US$ 146 bilhões de valor das empresas americanas nas bolsas.
Influência no preço dos ativos
Mesmo a alteração de uma palavra em um post, manipulando a linguagem, pode levar a uma alta ou uma queda injustificada de um papel. Em mais um exemplo, o trabalho ressalta o potencial de fazer um estrago nas cotações se um comunicado de uma empresa sobre a venda de ativos anunciasse que estava sendo “executada” em vez de “planejada”.
Para a inteligência artificial, a notícia seria verdadeira, levando a um alerta de que haveria mudanças bruscas no papel e a movimentos do mercado, em consequência.
Ao longo de dois anos, esta manipulação pode levar a um prejuízo de até 32% nos portfólios dos investidores. Foi o que aconteceu durante uma simulação realizada durante o estudo. E a manipulação mostrou mais um problema, sendo mais prejudicial para os investimentos de longo prazo, que não se recuperaram dos prejuízos.
O estudo não teve o objetivo de mostrar que a inteligência artificial deve ser descartada nos investimentos, mas alertar que pode ser manipulada. Algoritmos não estão livres de falhas. E, sendo vulneráveis, reafirmam a importância de não só reunir toda informação possível para um investimento, mas também, dependendo do caso, desconfiar dela.
*Samy Dana é Ph.D em Business, apresentador do Cafeína/InvestNews no YouTube e comentarista econômico. |
As informações desta coluna são de inteira responsabilidade do autor e não do InvestNews e das instituições com as quais ele possui ligação.
Veja também
- Robô Investidor: entenda como funciona e porque ele divide opiniões
- A queda das ações da Netflix e a lição de seu grande ex-investidor
- Devagar se vai ao lucro: por que analistas que demoram a mudar vão melhor
- Saber mais sobre o risco altera decisões? Um estudo sobre calorias e mercado
- Uma história de hackers, fraude e aversão ao risco nas bolsas americanas