<?xml version="1.0" encoding="UTF-8" standalone="yes"?><oembed><version><![CDATA[1.0]]></version><provider_name><![CDATA[]]></provider_name><provider_url><![CDATA[http://tictank.pt]]></provider_url><author_name><![CDATA[TICtank]]></author_name><author_url><![CDATA[https://tictank.pt/author/tictank/]]></author_url><title><![CDATA[TextFooler a enganar assistentes de&nbsp;voz]]></title><type><![CDATA[link]]></type><html><![CDATA[<p>Os sistemas de processamento de linguagem natural (<a href="https://becominghuman.ai/a-simple-introduction-to-natural-language-processing-ea66a1747b32">NLPs</a>) podem ser manipulados, como <a href="http://news.mit.edu/2020/hey-alexa-sorry-i-fooled-you-0207">descobriu</a> um grupo de investigadores do Computer Science and Artificial Intelligence Laboratory do MIT. Os NLPs são &#8220;o tipo de sistemas que nos permite interagir com os assistentes por voz&#8221; como o Siri ou o Alexa.</p>
<p>Eles conseguiram ser dos primeiros a alterar o modelo de classificação de texto BERT &#8211; daí o nome do artigo científico onde revelam a descoberta ser &#8220;<a href="https://arxiv.org/abs/1907.11932">Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment</a>&#8220;.</p>
<p>A solução dá pelo nome de “TextFooler” e foi revelada após terem conseguido, com sucesso, atacar e alterar três modelos de NLPs. O futuro pode permitir usar esta solução para filtrar spam no email ou a detecção de mensagens políticas &#8220;sensíveis&#8221;.</p>
]]></html><thumbnail_url><![CDATA[https://tictank.files.wordpress.com/2020/02/alexa-amazon.png?fit=440%2C330]]></thumbnail_url><thumbnail_width><![CDATA[440]]></thumbnail_width><thumbnail_height><![CDATA[244]]></thumbnail_height></oembed>