Mediante Ollama y LMStudio, podemos ejecutar modelos de lenguaje en local, lo que nos permite trabajar con la seguridad de que nuestros datos no salen de nuestro ordenador.
Pese a que, por el momento y debido al escaso impacto de estos navegadores en el mercado, esto no representa un gran problema, sí hay que buscar soluciones de cara al futuro.