Ed
mês passado
Vamos analisar cada uma das afirmações sobre árvores de decisão: ( ) Uma medida de seleção de atributo para nós não folha de uma árvore especifica uma heurística para selecionar o atributo que melhor discrimina uma partição de dados em classes individuais. É verdadeira (V). Essa afirmação está correta, pois a seleção de atributos é fundamental para a construção da árvore, visando a melhor discriminação das classes. ( ) O método de seleção de atributos é executado a cada iteração do algoritmo para selecionar o melhor atributo a ser utilizado nos nós, por meio de uma medida de seleção, até que ocorra uma condição de parada. É verdadeira (V). Essa afirmação também está correta, pois o algoritmo de construção da árvore de decisão realmente seleciona o melhor atributo em cada iteração até que uma condição de parada seja atingida. ( ) Dentre as funções de parada amplamente utilizadas para Árvores de Decisão estão o Ganho de Informação e o Gini Index. É falsa (F). O Ganho de Informação e o Gini Index são, na verdade, medidas de seleção de atributos, e não funções de parada. As funções de parada podem incluir critérios como a profundidade máxima da árvore ou o número mínimo de amostras em um nó. Portanto, a sequência correta é: V - V - F. A alternativa que apresenta essa sequência é a B) V - V - F.


Cadastre-se ou realize login
Ao continuar, você aceita os Termos de Uso e Política de Privacidade