In this work, an artificial neural network (ANN) has been trained and tested for estimation of the performance of direct synthesis of dimethyl ether (DME) from synthesis gas. Yield and selectivity of DME production and also conversion of CO could be predicted when temperature and pressure of reactor and H 2 /CO molar ratio in feed have been specified. The results of ANN estimation for yield of DME, selectivity of DME and CO conversion are in very good agreement with experimental values. For this development, database was collected from our previous experiment. The accuracy and trend stability of the trained networks were tested against unseen data. Different training schemes for the back-propagation learning algorithm, such as: Scaled Conjugate Gradient (SCG), Levenberg-Marquardt (LM), Gradient Descent with Momentum (GDM), variable learning rate Back propagation (GDA) and Resilient back Propagation (RP) methods were used. The SCG algorithm with seven neurons in the hidden layer shows the best suitable algorithm with the minimum average absolute relative error 0.05231.Dans ce travail, une réseau de neurones artificiels (RNA) aété instruit et testé pour l'estimation du rendement de la synthèse directe d'oxyde de diméthyle (ODM)à partir de gaz de synthèse. On peut prédire le rendement et la sélectivité de la production de ODM et la conversion de CO lorsque la température et la pression du réacteur ainsi que le rapport molaire H2/CO de la charge de départ ontété spécifiés. Les résultats de l'estimation RNA du rendement de ODM, de la sélectivité de la production de ODM et la conversion de CO sont en bon accord avec les valeurs expérimentales. Pour ce dévelopment, une base de données de notre précédente expérimentation aété collectée. L'exactitude et la stabilité des tendances des réseaux instruits ontété testées par rapportà des données anonymes. Différents systèmes d'instruction pour l'algorithme de rétropropagation d'apprentissage ontété utilisés, par exemple, le gradient conjugué pondéré (SCG), Levenberg-Marquardt (LM), la descente de gradient avec momentum (GDM), la rétropropagationà taux d'apprentissage variable (GDA) et la rétropropagation résiliente (RP). L'algorithme SCG avec sept neurones dans la couche cachée se démontre commeétant l'algorithme le mieux approprié avec une erreur relative absolue moyenne minimale de 0,05231.