Sistemas embarcados têm se tornado cada vez mais complexos e habituais, não sendo mais meros cumpridores de funções dedicadas e sim agregando funcionalidades cada vez mais variadas. Dentre esses, os que utilizam o sistema operacional Android têm se destacado, devido sua versatilidade, poder de processamento, pluralidade de sensores e principalmente baixo custo. Sendo usualmente utilizados em plataformas multifuncionais e que contém diversos sensores embarcados, como acelerômetro, bússola magnética, giroscópio e câmera. Este trabalho teve como objetivo apresentar um estudo sobre a utilização de uma plataforma Android para o auxílio à navegação autônoma de sistemas robóticos, por meio do emprego dos sensores embarcados supracitados, da comunicação direta do sistema robótico com a plataforma Android de forma a melhorar a estimativa de orientação e localização e do processamento inerente à plataforma, de modo a realizar a localização do sistema robótico em um ambiente previamente conhecido. Para tanto, além de avaliar a efetividade dos sensores, também foram investigados diferentes métodos de fusão sensorial e diferentes métodos de visão computacional de forma a comparar suas entregas e suas demandas. Os resultados encontrados conoboram a ideia de que a plataforma Android é uma oportunidade de baixo custo para auxílio à navegação autônoma, já que por meio de sensores inerciais e óptico, normalmente integrados à placa com esse sistema operacional, é possível navegar autonomamente um sistema robótico de um ponto a outro de um ambiente previamente conhecido.