banner

blog

Jan 30, 2024

IA

A Swift AI usou uma técnica chamada aprendizagem por reforço profundo para vencer 15 das 25 corridas contra campeões mundiais

Tendo derrotado os humanos em tudo, desde xadrez e Go até StarCraft e Gran Turismo, a inteligência artificial (IA) melhorou o seu jogo e derrotou campeões mundiais num desporto do mundo real.

Os últimos mortais a sentir a dor da derrota induzida pela IA são três pilotos experientes de drones que foram derrotados por um algoritmo que aprendeu a pilotar um drone em uma pista de corrida 3D em velocidades vertiginosas sem cair. Ou pelo menos não travando com muita frequência.

Desenvolvido por pesquisadores da Universidade de Zurique, o Swift AI venceu 15 das 25 corridas contra campeões mundiais e registrou a volta mais rápida em um percurso onde drones atingem velocidades de 80 km/h (50 mph) e suportam acelerações de até 5 g, o suficiente para fazer muitas pessoas desmaiam.

“Nosso resultado marca a primeira vez que um robô movido por IA derrotou um campeão humano em um esporte físico real projetado para e por humanos”, disse Elia Kaufmann, pesquisadora que ajudou a desenvolver o Swift.

As corridas de drones com visão em primeira pessoa envolvem pilotar um drone em um percurso repleto de portões que devem ser passados ​​​​de forma limpa para evitar um acidente. Os pilotos veem o percurso por meio de um vídeo de uma câmera montada no drone.

Escrevendo na Nature, Kaufmann e seus colegas descrevem uma série de corridas frente a frente entre Swift e três pilotos campeões de drones, Thomas Bitmatta, Marvin Schäpper e Alex Vanover. Antes da competição, os pilotos humanos tiveram uma semana para praticar no percurso, enquanto Swift treinou em um ambiente simulado que continha uma réplica virtual do percurso.

Swift usou uma técnica chamada aprendizagem por reforço profundo para encontrar os comandos ideais para percorrer o circuito. Como o método depende de tentativa e erro, o drone caiu centenas de vezes durante o treinamento, mas como se tratava de uma simulação, os pesquisadores poderiam simplesmente reiniciar o processo.

Durante uma corrida, Swift envia vídeo da câmera integrada do drone para uma rede neural que detecta os portões da corrida. Esta informação é combinada com leituras de um sensor inercial para estimar a posição, orientação e velocidade do drone. Essas estimativas são então alimentadas para uma segunda rede neural que determina quais comandos enviar ao drone.

A análise das corridas mostrou que Swift foi consistentemente mais rápido no início da corrida e fez curvas mais fechadas do que os pilotos humanos. A volta mais rápida de Swift foi de 17,47 segundos, meio segundo mais rápida que o piloto humano mais rápido. Mas Swift não era invencível. Perdeu 40% de suas corridas contra humanos e caiu diversas vezes. O drone parecia ser sensível a mudanças no ambiente, como a iluminação.

As corridas deixaram os campeões mundiais com sentimentos contraditórios. “Este é o começo de algo que pode mudar o mundo inteiro. Por outro lado, sou um piloto, não quero que nada seja mais rápido que eu”, disse Bitmatta. E como observou Schäpper: “É diferente correr contra uma máquina, porque você sabe que a máquina não se cansa”.

Um avanço importante é que o Swift pode lidar com desafios do mundo real, como turbulência aerodinâmica, desfoque de câmera e mudanças na iluminação, que podem confundir sistemas que tentam seguir uma trajetória pré-computada. Kaufmann disse que a mesma abordagem poderia ajudar os drones a procurar pessoas em edifícios em chamas ou a realizar inspeções em grandes estruturas, como navios.

Os militares têm um interesse intenso em drones alimentados por IA, mas não estavam convencidos de que o trabalho mais recente teria implicações importantes para a guerra. Elliot Winter, professor sênior de direito internacional na Newcastle Law School, disse: “Devemos ter cuidado para não presumir que avanços como esses possam ser facilmente transplantados para um contexto militar para uso em drones militares ou sistemas de armas autônomos que estão envolvidos. em processos críticos, como a seleção de alvos.”

Alan Winfield, professor de ética robótica, disse que embora a IA tivesse usos militares “inevitáveis”, ele não tinha certeza de como o trabalho mais recente poderia beneficiar os militares além de talvez ter bandos de drones seguindo um avião em formação próxima.

COMPARTILHAR