Ed
há 2 semanas
Vamos analisar as asserções: I - "A tokenização é suficiente para capturar a relevância sem a necessidade de normalizar a frequência dos termos." Essa afirmação é falsa. A tokenização apenas separa o texto em unidades (tokens), mas para capturar a relevância dos termos, normalmente é necessário normalizar a frequência (por exemplo, usando TF-IDF), pois a simples contagem não reflete a importância relativa dos termos. II - "A remoção de pontuação garante a precisão dos cálculos de frequência em documentos textuais." Essa afirmação é verdadeira. A remoção de pontuação evita que símbolos sejam contados como tokens, o que melhora a precisão na contagem de palavras. Portanto, a alternativa correta é: A Asserção I é uma proposição falsa, e a Asserção II é uma proposição verdadeira.


Cadastre-se ou realize login
Ao continuar, você aceita os Termos de Uso e Política de Privacidade