<?xml version="1.0" encoding="UTF-8" standalone="yes"?><oembed><version><![CDATA[1.0]]></version><provider_name><![CDATA[]]></provider_name><provider_url><![CDATA[http://tictank.pt]]></provider_url><author_name><![CDATA[TICtank]]></author_name><author_url><![CDATA[https://tictank.pt/author/tictank/]]></author_url><title><![CDATA[Quem sou eu, reconhecimento&nbsp;facial?]]></title><type><![CDATA[link]]></type><html><![CDATA[<p>Um algoritmo desenvolvido por investigadores da empresa de cibersegurança McAfee consegue enganar os sistemas de reconhecimento facial, como os usados em aeroportos.</p>
<p>Ao conseguir enganar o sistema para pretender que a pessoa visualizada é outra que nem sequer necessita de estar presente, a empresa consegue demonstrar a fragilidade destas ferramentas.</p>
<p>O sistema recorre à &#8220;machine learning&#8221; para criar &#8220;uma imagem que parece de uma pessoa aos olhos humanos, mas foi identificada como outra pessoa pelo algoritmo de reconhecimento de rosto &#8211; o equivalente a enganar a máquina para permitir que alguém embarque num voo&#8221;, apesar de poder constar de uma lista em que não está autorizado a voar.</p>
<p><span class="embed-youtube" style="text-align:center; display: block;"><iframe class='youtube-player' width='640' height='360' src='https://www.youtube.com/embed/FAEXmhkB17M?version=3&#038;rel=1&#038;fs=1&#038;autohide=2&#038;showsearch=0&#038;showinfo=1&#038;iv_load_policy=1&#038;wmode=transparent' allowfullscreen='true' style='border:0;'></iframe></span></p>
<p>Se a imagem for comparada com uma foto de passaporte, &#8220;podemos de forma realista e repetida causar esse tipo de classificação incorrecta&#8221;, <a href="https://www.technologyreview.com/2020/08/05/1006008/ai-face-recognition-hack-misidentifies-person/">afirma</a> um dos co-autores do estudo, Steve Povolny. Para eles, o objectivo do projecto é demonstrar as &#8220;fragilidades inerentes nestes sistemas de inteligência artificial&#8221;, mostrando a necessidade de manter seres humanos neste tipo de tarefas de vigilância.</p>
<p><img class="image lazyloaded alignleft" src="https://images.newscientist.com/wp-content/uploads/2020/08/06143924/results_topk_web.jpg?width=300" alt="AI transforming photo" width="354" height="236" /></p>
<p>Num outro exemplo, um sistema consegue <a href="https://www.newscientist.com/article/2251262-an-ai-can-make-selfies-look-like-theyre-not-selfies/">alterar as &#8220;selfies&#8221;</a> para parecerem imagens captadas por terceiros.</p>
<p>As fragilidades são tão evidentes que um grupo de entidades, entre as quais a Adobe, o Twitter e o New York Times revelaram um plano para garantir alguma veracidade nas fotografias e vídeos &#8220;<a href="https://www.axios.com/system-for-thwarting-deepfakes-unveiled-d8fc760c-9a44-43fb-a92e-8a86498414d6.html">perante a crescente vaga da falsidade digital</a>&#8221; no que é vulgarmente conhecido por &#8220;deepfakes&#8221;.</p>
<p>A <a href="https://contentauthenticity.org/">Content Authenticity Initiative</a> quer impor uma norma aberta para a autenticação destes formatos, usando uma assinatura digital ao nível do hardware (em smartphones, por exemplo) ou em programas de software, como o Photoshop.</p>
]]></html><thumbnail_url><![CDATA[https://tictank.files.wordpress.com/2020/08/contentauthenticityinitiative.png?w=1200&fit=440%2C330]]></thumbnail_url><thumbnail_width><![CDATA[439]]></thumbnail_width><thumbnail_height><![CDATA[199]]></thumbnail_height></oembed>