<?xml version="1.0" encoding="UTF-8" standalone="yes"?><oembed><version><![CDATA[1.0]]></version><provider_name><![CDATA[]]></provider_name><provider_url><![CDATA[http://tictank.pt]]></provider_url><author_name><![CDATA[TICtank]]></author_name><author_url><![CDATA[https://tictank.pt/author/tictank/]]></author_url><title><![CDATA[Mecanismos para garantir uma IA mais responsável e&nbsp;segura]]></title><type><![CDATA[link]]></type><html><![CDATA[<p>O crescente desenvolvimento de aplicações de inteligência artificial (IA) foi acompanhado por receios dos riscos colocados por estes sistemas, ao mesmo tempo que se reconhece como as regulações e normas académicas e industriais são insuficientes, alega o documento &#8220;<a href="https://arxiv.org/pdf/2004.07213.pdf">Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims</a>&#8220;.</p>
<p>Neste, um conjunto de investigadores define um conjunto de recomendações, agregados em três mecanismos de validação da IA, para garantir a confiança dos utilizadores, sociedade civil, governos e outros envolvidos no sector. A lista de recomendações é a seguinte:<br />
<em><strong>Mecanismos institucionais</strong></em><br />
<em>1. Uma coligação de partes interessadas deve criar uma task force para procurar opções para gerir e financiar auditorias de terceiros nos sistemas de IA.</em><br />
<em>2. As organizações que desenvolvem IA devem executar exercícios de equipa para explorar os riscos associados aos sistemas que desenvolvem e devem partilhar as melhores práticas e ferramentas para o fazer.</em><br />
<em>3. Os programadores de IA devem testar preconceitos e <a href="https://venturebeat.com/2020/04/17/ai-researchers-propose-bias-bounties-to-put-ethics-principles-into-practice/">recompensas de segurança</a> para os sistemas de IA, a fim de fortalecer os incentivos e processos para uma análise mais ampla dos sistemas de IA.</em><br />
<em>4. Os programadores de IA devem partilhar mais informações sobre incidentes de IA, inclusive através de canais colaborativos.</em></p>
<p><em><strong>Mecanismos de software</strong></em><br />
<em>5. Os órgãos de definição de normas devem trabalhar com a academia e a indústria para desenvolver requisitos de auditoria para as aplicações críticas de segurança dos sistemas de IA.</em><br />
<em>6. As organizações que desenvolvem IA e as entidades financiadoras devem apoiar a investigação sobre a interpretabilidade dos sistemas de IA, com foco no apoio à avaliação e auditoria de riscos.</em><br />
<em>7. Os programadores de IA devem desenvolver, partilhar e usar conjuntos de ferramentas para a aprendizagem por máquina (&#8220;machine learning&#8221;) de preservação da privacidade, que incluam medidas de desempenho em relação a normas comuns.</em></p>
<p><em><strong>Mecanismos de hardware</strong></em><br />
<em>8. A indústria e a academia devem trabalhar juntos para desenvolverem recursos de segurança de hardware para aceleradores de IA ou estabelecer outras práticas recomendadas para o uso de hardware seguro em contextos de &#8220;machine learning&#8221;.</em><br />
<em>9. Um ou mais laboratórios de IA devem estimar o poder de computação envolvido num único projecto em grande detalhe (medição computacional de alta precisão) e reportar sobre o potencial da adopção mais ampla de tais métodos.</em><br />
<em>10. As entidades governamentais financiadoras devem aumentar substancialmente o financiamento de recursos de energia computacional para investigadores na academia, a fim de melhorar a sua capacidade de verificar as alegações feitas pela indústria.</em></p>
<p>Nas conclusões, os investigadores declaram a necessidade destes mecanismos para assegurar a responsabilidade dos criadores em IA. As três razões apontadas são a &#8220;tensão entre a verificabilidade do que é afirmado e a generalidade de tais afirmações. Segundo, essa verificabilidade das afirmações não garante que elas sejam verificadas na prática. Terceiro, mesmo que uma alegação sobre o desenvolvimento da IA se demonstre falsa, assimetrias de poder podem impedir que as medidas correctivas sejam tomadas&#8221;.</p>
<p>Com a generalização dos mecanismos defendidos pelos autores do relatório e com &#8220;um esforço conjunto para permitir reivindicações verificáveis sobre o desenvolvimento da IA, há uma oportunidade maior de moldar positivamente o impacto da IA e aumentar a probabilidade de benefícios sociais generalizados&#8221;.</p>
<p><em>* Foto: <a class="owner-name truncate no-outline" title="Vá para a galeria de deepak pal" href="https://www.flickr.com/photos/158301585@N08/">deepak pal</a>/<a href="https://www.flickr.com/photos/158301585@N08/43267970802/in/photostream/">Flickr</a> (<a href="https://creativecommons.org/licenses/by-sa/2.0/"><span class="cc-license-identifier">CC BY-SA 2.0</span></a>)</em></p>
]]></html><thumbnail_url><![CDATA[https://tictank.files.wordpress.com/2020/04/deepakpal.jpg?fit=440%2C330]]></thumbnail_url><thumbnail_width><![CDATA[440]]></thumbnail_width><thumbnail_height><![CDATA[293]]></thumbnail_height></oembed>