sexta-feira, 13 de maio de 2016

Administração Obama Teme Inteligência Artificial sem controle



Na semana passada, a Casa Branca divulgou um relatório relatando preocupações da administração Obama sobre Big Data e inteligência artificial. Muitos proeminentes pensadores e cientistas saíram recentemente com advertências sobre os perigos da inteligência artificial sem controle. No entanto, a AI o relatório da Casa Branca se refere não é do Terminator laia - em vez disso, Obama tem preocupações sobre inteligência artificial algorítmica operando sem supervisão humana.

O relatório, "Big Data: Um Relatório sobre Sistemas Algorithmic, oportunidade e Direitos Civis", cataloga a crescente esfera de influência representado por Big Data na sociedade, incluindo o emprego, o ensino superior, e justiça criminal.

No que diz respeito ao crescimento de automação e inteligência artificial algorítmica, o relatório indica:

Como serviços baseados em dados tornam-se cada vez mais onipresente, e como chegamos a depender deles mais e mais, temos de responder às preocupações sobre preconceitos intencionais ou implícitas que podem surgir a partir de ambos os dados e os algoritmos utilizados, bem como o impacto que podem ter sobre o usuário e da sociedade. Questões de transparência surgir quando as empresas, instituições e organizações utilizam sistemas de algoritmos e processos automatizados para informar as decisões que afetam nossas vidas, como se vamos ou não se qualificar para oportunidades de crédito ou de emprego, ou que, anúncios de emprego e de habitação financeiros que vemos.

O relatório também observa como a tecnologia algorítmica poderia tanto reforçar e pôr em perigo a relação entre a aplicação da lei com as comunidades locais:

Se loops de feedback não são cuidadosamente construído, um sistema algorítmico preditivo construída desta maneira poderia perpetuar policiamento práticas que não são suficientemente sintonizadas com as necessidades da comunidade e potencialmente impedir os esforços para melhorar a confiança e segurança da comunidade. Por exemplo, sistemas de aprendizado de máquina que levem em conta passado prisões pode indicar que certas comunidades exigem mais policiamento e fiscalização, quando na verdade as comunidades podem estar mudando para melhor ao longo do tempo.

A Casa Branca diz que quer desenvolver uma estrutura para abordar essas preocupações de modo que os algoritmos de falhas não se tornar um problema socioeconômico. Os exemplos citados incluem a potencialidade de pessoas sendo negado crédito e habitação devido a informações imprecisas.O temor é que as tecnologias automatizadas e algorítmica AI implantados sem supervisão humana poderia levar a um tratamento injusto.

Há uma ironia inegável nesta posição, uma vez que a administração Obama orgulhosamente terceirizado muitos de seus ataques militares para aviões não tripulados e robôs autônomos. Apenas nos últimos dois anos, drones weaponized fizeram greves no Afeganistão, Paquistão, Iêmen e Somália .

Em suas seminais Papers Drone , o Intercept relatou cerca de 90% das pessoas mortas nesses ataques não eram os alvos pretendidos. Milhares de civis inocentes morreram por causa de drones autónomas de Obama, e sua lista de kill notório está sob escrutínio pesado para acidentes e metas equivocadas .

A conexão entre algoritmos de inteligência e de drones greves artificiais podem aparecer solto à primeira vista. Mas o princípio por trás do recente papel de Big Data é proteger os cidadãos da tecnologia fora de controle. É difícil conciliar esta preocupação com o serviço de bordo simplista a administração paga ao dano colateral decorrente de sistemas de focalização falhos.

FONTE:
Share:

0 comentários:

Postar um comentário

Faça seu comentário aqui ou deixe sua opinião.

Observação: somente um membro deste blog pode postar um comentário.

SUA LOCALIZAÇÃO, EM TEMPO REAL.

Blogger Themes

Total de visualizações de página

Seguidores deste canal

Arquivo Geral do Blog

Minha lista de Sites e Blogs Parceiros

Translate this page

Hora Certa