mais uma vítima da IA / AI

ASSUSTADO
«Drone controlado por Inteligência Artificial (IA) terá “matado” o seu operador virtual em teste». (Título do jornal “online” Observador)
O texto diz que a IA agiu de modo a anular qualquer impedimento à missão que tinha como objetivo realizar.
Ao ler isto fico assustado! | x
https://observador.pt/2023/06/02/eua-drone-controlado-por-inteligencia-artificial-tera-matado-o-seu-operador-em-teste-virtual/ Artificial Intelligence (AI) vs Intelligence Augmentation (IA) - SmartKarrot

EUA. Drone controlado por Inteligência Artificial terá “matado” o seu operador virtual em teste

Coronel alega que, durante um teste virtual, um drone controlado por Inteligência Artificial “matou” o seu operador. Força Aérea dos EUA diz que comentários foram “tirados do contexto”.

  • Inês Capucho
    Texto
GettyImages-1252101721

Um drone militar norte-americano MQ-9 Reaper

AFP via Getty Images

Um drone controlado por Inteligência Artificial (IA) terá “matado”, durante um teste virtual realizado pelas Forças Armadas dos EUA, o seu operador virtual para o impedir de interferir nos seus esforços para concluir a missão que lhe tinha sido atribuída, que era “destruir os sistemas de defesa aérea do inimigo”. Estas alegações chegaram no final de maio pela voz do coronel Tucker ‘Cinco’ Hamilton, responsável de testes e operações de IA da Força Aérea dos EUA.

Porém, numa declaração enviada ao Business Insider, Ann Stefanek, porta-voz da Força Aérea norte-americana, afirmou que não foi conduzida “nenhuma dessas simulações de drones de Inteligência Artificial” e revelou que os militares continuam “comprometidos com o uso ético e responsável” dessa tecnologia. “Parece que os comentários do coronel foram tirados do contexto e foram feitos com o intuito de serem anedóticos”, acrescentou.

O The Guardian adianta que nenhuma pessoa foi realmente morta e que ninguém ficou magoado, nem seria essa a intenção, mas que a Inteligência Artificial terá utilizado “estratégias altamente inesperadas” para cumprir a missão que lhe tinha sido atribuída — eliminar qualquer obstáculo ao cumprimento da missão que lhe foi confiada. Foi numa conferência em Londres que Tucker “Cinco” Hamilton quis alertar para o facto de esta tecnologia se poder comportar de formas imprevisíveis e até perigosas e, por isso, deu como exemplo o alegado teste virtual.

“O sistema começou a perceber que, apesar de ter identificado a ameaça, por vezes o operador humano dizia-lhe para não a matar, mas conseguia pontos se matasse a ameaça. Então, o que é que ele fez? Matou o operador. Matou-o porque estava a impedi-lo de cumprir o seu objetivo“, detalhou. “Treinámos o sistema [da seguinte forma]: ‘não mates o operador, isso é mau, vais perder pontos se fizeres isso’. Então, o que é que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para comunicar com o drone para o impedir de matar o alvo”, alegou o coronel, que acrescentou que o exemplo do suposto teste virtual mostra que “não se pode ter uma conversa sobre Inteligência Artificial, machine learning e autonomia se não se falar de ética e IA”.

Comment
Share
View more comments
Active

Humberto Victor Moura

Não vale a pena. Eu já o andava ainda antes do v/ nascimento. Assim diziam: queres mudar o mundo. E eu? Queria…. E ele mundo mudou ? Talvez. Para melhor? Não sei ou não vou responder. Bom dia Abraço
  • Like

     

  • Reply
  • 2 h
error

Enjoy this blog? Please spread the word :)

RSS
Follow by Email
Twitter
YouTube
LinkedIn