<?xml version="1.0" encoding="UTF-8" standalone="yes"?><oembed><version><![CDATA[1.0]]></version><provider_name><![CDATA[]]></provider_name><provider_url><![CDATA[http://tictank.pt]]></provider_url><author_name><![CDATA[TICtank]]></author_name><author_url><![CDATA[https://tictank.pt/author/tictank/]]></author_url><title><![CDATA[Uso não controlado da visão automática pela polícia com elevados riscos de&nbsp;discriminação]]></title><type><![CDATA[link]]></type><html><![CDATA[<p>Pelo menos 11 forças policiais municipais na Europa usam a visão automática para analisar automaticamente imagens de câmaras de vigilância. Os riscos de discriminação são elevados, mas as autoridades ignoram-os.</p>
<p>Peões e motoristas nalgumas ruas de Varsóvia, Mannheim, Toulouse ou Kortrijk são constantemente monitorizados quanto a comportamento anormal. A polícia nessas cidades, e em muitas outras, ligou os &#8220;feeds&#8221; de vídeo das câmaras de vigilância a sistemas automatizados que alegam detectar movimentos suspeitos, como conduzir em faixas bus, roubo, assalto ou o ajuntamento de grupos agressivos.</p>
<hr />
<p>Pelo menos 11 cidades usam vigilância automatizada na UE:<br />
<em>BL &#8211; Bruxelas (One Télécom): detecção de despejo de lixo ilegal, roubo.</em><br />
<em>FR &#8211; Cannes (Datakalab): detecta se os pedestres usam máscaras faciais.</em><br />
<em>BL &#8211; Kortrijk (BriefCam)</em><br />
<em>AL &#8211; Mannheim (Frauenhofer IOSB): detecção de movimentos corporais que constituem agressão.</em><br />
<em>SP &#8211; Marbelha (Avigilon)</em><br />
<em>FR &#8211; Marselha (Snef)</em><br />
<em>FR &#8211; Nice (Two-I): ainda não implementado.</em><br />
<em>FR &#8211; Nîmes (BriefCam)</em><br />
<em>RC &#8211; Praga (BriefCam): concurso a decorrer.</em><br />
<em>RC &#8211; Prostějov (BriefCam)</em><br />
<em>FR &#8211; Roubaix (BriefCam)</em><br />
<em>FR &#8211; Toulouse (IBM)</em><br />
<em>PL &#8211; Varsóvia (BriefCam)</em><br />
<em>FR &#8211; Yvelines: Vigilância de escolas secundárias e um corpo de bombeiros.</em></p>
<hr />
<p>Todas as técnicas de vigilância automatizada em uso nas cidades acima listadas confiam na Machine Learning. Essa abordagem requer que os programadores de software alimentem grandes quantidades de cenas mostrando a normalidade e outras representando situações consideradas anormais aos programas de computador. Os programas vão depois encontrar padrões específicos para cada tipo de situação.</p>
<p><strong>Correlações espúrias</strong><br />
A Machine Learning tem muitas aplicações que agora são usadas ​​de modo rotineiro, como pesquisa reversa de imagens ou tradução automática. Mas as desvantagens dessa técnica são bem conhecidas. O software não entende uma situação no sentido humano, apenas encontra inferências nos dados que lhe foram fornecidos. É por isso que, após décadas de controvérsia, o Google Translates ainda transforma os termos neutros noutros de género como “eles são médicos” em alemão como “sie sind Ärtze” (masculino) e “eles são enfermeiros” como “sie sind Krankenschwestern” (feminino). O Google Translate não foi programado para ser sexista. O corpus de textos que recebeu passou a conter mais casos de médicos e de enfermeiras.</p>
<p>O que é verdade para a tradução automática também o é para o reconhecimento automático de imagens, conhecido como visão por computador. A 7 de Abril, o AlgorithmWatch <a href="https://algorithmwatch.org/en/story/google-vision-racism/">revelou</a> que a Google Vision, um serviço de classificação de imagens, considerou um termómetro como uma “ferramenta” numa mão com um tom de pele claro e como “arma” numa pele escura. (A Google mudou entretanto o seu sistema).</p>
<p>A 3 de Abril, a Google Vision Cloud produziu classificações totalmente diferentes após a adição de uma sobreposição.</p>
<div style="width: 810px" class="wp-caption alignnone"><img class="transparent" src="https://algorithmwatch.org/wp-content/uploads/2020/04/googlevision.png" alt="https://algorithmwatch.org/wp-content/uploads/2020/04/googlevision.png" width="800" height="378" /><p class="wp-caption-text">Resultados fornecidos pela Google Vision Cloud antes de 6 de Abril.</p></div>
<p>As correlações espúrias podem ter várias causas, de acordo com Agathe Balayn, candidato a PhD na Universidade de Tecnologia de Delft, sobre o tópico do viés em sistemas automatizados, mas a maioria delas provavelmente provém dos conjuntos de dados de treino. Os sistemas de visão automática dependem da anotação manual de milhões de imagens. Esse trabalho geralmente é feito por trabalhadores a quem pagam alguns centavos por cada tarefa. Eles têm fortes incentivos para serem rápidos e se adaptarem às expectativas dos seus clientes, escreveu Balayn ao AlgorithmWatch. Diversidade e sutileza no conjunto de dados de formação sofrem em resultado disso.</p>
<p><strong>Equívocos</strong><br />
O AlgorithmWatch perguntou a vários fornecedores de soluções de visão computacional para as forças policiais que dados de formação usavam e como garantiam que os seus programas não fossem discriminatórios.</p>
<p>Um porta-voz do BriefCam, usado pelas forças policiais de Varsóvia a Roubaix, declarou por email que, como o software não usava o tom de pele como variável, não era possível discriminar. Este é um equívoco comum. O software de Machine Learning foi desenvolvido para encontrar padrões que não são especificados pelos seus programadores para alcançar os resultados. É por isso que o Google Translate produz resultados sexistas e o Google Vision produz resultados racistas, embora não tenham sido explicitamente programados para ter em consideração o sexo ou a cor da pele.</p>
<p>O porta-voz da BriefCam acrescentou que usavam &#8220;conjuntos de dados de treino que consistem em amostras de vários géneros, idades e raças sem enviesamento minoritário&#8221;, mas recusou fornecer qualquer evidência ou detalhe.</p>
<p>A polícia de Etterbek, em Bruxelas, usa a visão automática para detectar automaticamente o despejo ilegal de lixo. Um porta-voz da cidade escreveu que o sistema não tem em consideração o tom de pele ou qualquer outra característica individual, mas não forneceu informações sobre os dados de formação com que o seu software foi desenvolvido.<img loading="lazy" data-attachment-id="4598" data-permalink="https://tictank.pt/2020/05/05/uso-nao-controlado-da-visao-automatica-pela-policia-com-elevados-riscos-de-discriminacao/peter-pivak-miwnycyo5ek-unsplash/" data-orig-file="https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg" data-orig-size="3024,4032" data-comments-opened="1" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="peter-pivak-MIWnycYo5ek-unsplash" data-image-description="" data-medium-file="https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=225" data-large-file="https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=450" class=" wp-image-4598 alignright" src="https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=351&#038;h=468" alt="" width="351" height="468" srcset="https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=351&amp;h=468 351w, https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=702&amp;h=936 702w, https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=113&amp;h=150 113w, https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=225&amp;h=300 225w, https://tictank.files.wordpress.com/2020/05/peter-pivak-miwnycyo5ek-unsplash.jpg?w=450&amp;h=600 450w" sizes="(max-width: 351px) 100vw, 351px" /></p>
<p>Um porta-voz do Frauenhofer IOSB, que administra a vigilância automatizada de Mannheim, na Alemanha, alegou que o seu software não podia ser discriminatório porque se baseava numa modelação 3D das formas do corpo. Ele analisou movimentos, não imagens, e portanto não usou a cor da pele, acrescentou. Detalhes sobre o conjunto de dados de treino e a sua diversidade não foram fornecidos.</p>
<p>A Avigilon recusou-se a comentar. A One Télécom, Two-I e Snef não responderam a inúmeros emails.</p>
<p><strong>Problema invisível</strong><br />
A vigilância automatizada é difícil de detectar. As forças policiais não têm obrigação de divulgar que o usam e os editais dos concursos raramente são publicados. Na Polónia, por exemplo, o AlgorithmWatch foi informado de que qualquer informação sobre o assunto era &#8220;confidencial&#8221;. Os detalhes da sua operação de vigilância automatizada estavam disponíveis apenas num artigo da sua publicação interna, a Police Magazine &#8211; disponível online.</p>
<p>Essa invisibilidade dificulta o peso das organizações da sociedade civil. O AlgorithmWatch conversou com várias organizações anti-discriminação aos níveis local e nacional. Embora os seus porta-vozes reconheçam a importância do assunto, disseram que não poderiam tratá-lo por falta de atenção da população e por falta de ferramentas de monitorização.</p>
<p>Entretanto, a vigilância automatizada tem o potencial de aumentar drasticamente as práticas discriminatórias de policiamento.</p>
<p><strong>Não auditado</strong><br />
Não se sabe quanta vigilância automatizada afecta a discriminação no policiamento. Nenhum dos fornecedores ou cidades que o AlgorithmWatch contactou realizou auditorias para garantir que os resultados dos seus sistemas fosse o mesmo para todos os cidadãos.</p>
<p>Nicole Romain, porta-voz da Agência dos Direitos Fundamentais da União Europeia, escreveu que qualquer instituição que implante essas tecnologias deve realizar uma &#8220;avaliação abrangente do impacto dos direitos fundamentais para identificar possíveis enviesamentos&#8221;.</p>
<p>Relativamente à visão automática no policiamento, ela desconhece se uma avaliação desse tipo foi alguma vez feita.</p>
<p><em>* Texto original de <a href="https://algorithmwatch.org/en/story/computer-vision-police-discrimination/">Nicolas Kayser-Bril, publicado na Algorithm Watch</a> (<a href="https://creativecommons.org/licenses/by/4.0/deed.en">CC BY 4.0</a>). Fotografias de <a href="https://unsplash.com/@niv">niv singer</a> e <a href="https://unsplash.com/@pivievic">Peter Pivák</a> na Unsplash. </em></p>
]]></html><thumbnail_url><![CDATA[https://tictank.files.wordpress.com/2020/04/niv-singer-lkd_ih8_k8k-unsplash.jpg?w=1200&fit=440%2C330]]></thumbnail_url><thumbnail_width><![CDATA[440]]></thumbnail_width><thumbnail_height><![CDATA[289]]></thumbnail_height></oembed>