En sistemas informáticos cada vez más expuestos a través de redes globales de comunicación, la ciberseguridad enfrenta grandes retos. Dentro de los riesgos a que están expuestos estos sistemas están los ataques de denegación de servicios DoS, que atentan con la disponibilidad de los recursos. Dentro de los mecanismos para enfrentar esta situación están los sistemas de detección de intrusos IDS que mediante análisis de las tramas entrantes intentan determinar la presencia de un ataque. Los enfoques basados en técnicas de inteligencia artificial y algoritmos de machine learning muestran una contribución importante en la implementación de IDS en la actualizada. Pero como en todos los algoritmos de machine learning la alta dimensionalidad de los datos, como en el caso de las tramas en la red, pueden afectar el desempeño en el entrenamiento y más aún en la fase de producción. Las estrategias de reducción de características son una alternativa aplicada en muchos campos para poder seleccionar características que mantengan el buen desempeño de los algoritmos, pero mejorando el rendimiento. Este articulo presenta el efecto de la selección de atributos en el desempeño de un IDS basado en machine learning para detección de intrusos en ataques DDoS, mediante estudio empírico. El dataset utilizado es CICIDS-2017.