Arithmetic operations on matrices are frequently used in scientific computing areas. They usually become a performance bottleneck due to their high complexity. In this context, the parallel processing of matrix operations in distributed environments arises as an important field of study. This work presents several strategies for distributing sparse matrix arithmetic operations on computer clusters, focusing on the intrinsic characteristics of the operations and the matrices involved. The performance of the proposed strategies for determining the number of parallel tasks to be executed on the computer cluster was evaluated considering a high-dimensional feature selection approach. Additionally, the performance of two alternatives for efficiently representing bigscale sparse matrices was tested. Experimental results showed that the proposed strategies significantly reduce the computing time of matrix operations, outperforming computations based on serial and multi-thread implementations.Resumen-Las operaciones aritméticas matriciales son frecuentemente utilizadas en muchas áreas de la computación científica. Usualmente, son un cuello de botella debido a su alta complejidad computacional. En este contexto, el procesamiento paralelo de operaciones matriciales en ambientes distribuidos surge como un importante tópico de estudio. Este trabajo presenta diversas estrategias para la distribución de operaciones aritméticas entre matrices ralas en clusters de computadoras. Dichas estrategias se basan en las características intrínsecas de las operaciones y las matrices involucradas. El desempeño de las estrategias propuestas para determinar la cantidad de tareas paralelas a ejecutar, fue evaluado considerando un enfoque de selección de atributos multidimensional. Además, se evaluó el desempeño de dos alternativas para la representación eficiente de matrices ralas a gran escala. Los resultados experimentales mostraron que las estrategias propuestas redujeron los tiempos de cómputo de las operaciones, mejorando así significativamente los tiempos de las implementaciones seriales y multi-thread.