Cómo instalar y usar modelos locales de IA en Alex Sidebar

En uno de nuestros artículos, aprendimos cómo usar Alex Sidebar en Xcode y todos los beneficios que nos ofrece en el desarrollo de nuestros proyectos. Pero, ¿qué pasa si queremos utilizar modelos de IA locales en lugar de depender de servicios en la nube? En este artículo, te mostraremos cómo instalar y configurar modelos de IA locales en Alex Sidebar.

Pasos a seguir:

  1. Instalar Ollama.
  2. Instalar un modelo.
  3. Instalar ngrok.
  4. Configurar Alex Sidebar para usar el modelo local.

Instalación de Ollama

Ollama es una herramienta de código abierto que permite ejecutar LLMs de manera local. Para instalarlo, visita su página de descarga y descarga la versión para macOS.

Descargando Ollama

Para ejecutar Ollama, tienes dos opciones:

  • Abriendo la aplicación que acabamos de instalar. Una vez abierta, verás el ícono de Ollama en el menú de estado de macOS.
Ollama en el menu de nuestra macOS
  • Ejecutando en la terminal el siguiente comando: ollama serve

Instalación de un modelo

Con Ollama instalado, el siguiente paso es descargar un modelo. Para ver los modelos disponibles, visita la página de Ollama, donde encontrarás un listado de todos los modelos.

En este artículo, utilizaremos dos modelos:

deepseek-r1

Para instalar este modelo, ejecuta en la terminal uno de los siguientes comandos:

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b

Donde 1.5b es el modelo más ligero y 70b el más grande. Cuanto mayor sea el modelo, más recursos de memoria requerirá. Se recomienda comenzar con un modelo pequeño y evaluar el rendimiento del sistema.

En nuestras pruebas, usamos el modelo deepseek-r1:8b.

qwen2.5-coder

Para instalar este modelo, ejecuta uno de los siguientes comandos en la terminal:

ollama run qwen2.5-coder:32b
ollama run qwen2.5-coder:14b
ollama run qwen2.5-coder:7b
ollama run qwen2.5-coder:3b
ollama run qwen2.5-coder:1.5b
ollama run qwen2.5-coder:0.5b

En nuestras pruebas, usamos el modelo qwen2.5-coder:32b.

Comandos útiles de Ollama

  • Listar modelos instalados: ollama list
  • Eliminar un modelo: ollama rm <modelo-a-eliminar>

Instalación de ngrok

ngrok es una herramienta que crea un túnel seguro hacia el servidor local, permitiendo exponer los servicios locales a Internet de forma segura. Esto facilita que Alex Sidebar acceda al modelo local como si fuera un servicio en la nube.

Pasos para instalar y configurar ngrok:

  1. Instalar con Homebrew:

brew install ngrok

  1. Configurar ngrok con tu token de autenticación:

ngrok config add-authtoken <token>

  1. Ejecutar ngrok

ngrok http 11434 --host-header="localhost:11434"

Para obtener el authtoken es necesario crear una cuenta en su página oficial.

Configuración de Alex Sidebar para usar el modelo local

Abre la aplicación Alex Sidebar y dirígete a Settings > Models.

Sección Models en Alex Sidebar

En la parte inferior, encontrarás la sección Custom Models. Haz clic en Add New Model.

Sección Custom Models en Alex Sidebar

Completa los siguientes campos:

  • Model ID: nombre del modelo a usar, por ejemplo: qwen2.5-coder:32b o deepseek-r1:8b.
  • Base URL: La URL asignada por ngrok, agregando "/v1" al final. Ejemplo: "https://url.ngrok-free.app/v1".
  • API Key: el token de ngrok.
Configurando un modelo local en Alex Sidebar

Una vez configurado, podrás seleccionar y utilizar el modelo desde el listado en Alex Sidebar.

Seleccionando un modelo local en Alex Sidebar

Ahora puedes interactuar con los modelos y realizar prompts, obteniendo respuestas como la siguiente:

Código que nos arroja Alex Sidebar luego de nuetro prompt
struct ContentView: View {
// List of colors
let colors = [Color.red, Color.green, Color.blue, Color.yellow, Color.purple]
var body: some View {
VStack {
Text("Hello, world!")
// Displaying the list of colors
ForEach(colors, id: \.self) { color in
Rectangle()
.fill(color)
.frame(width: 50, height: 50)
}
}
}
}

Si bien este código generó un error en ForEach(colors, id: \\.self), su solución es sencilla y rápida.

App de ejemplo que nos creó Alex Sidebar

Conclusión

Mientras más grande sea el modelo, mejores resultados se obtendrán, aunque también se requerirán más recursos. Un aspecto a considerar al usar modelos locales es que suelen ser más lentos que los servicios en la nube. La elección dependerá de los recursos de tu sistema y del uso que le quieras dar. Ahora es tu turno de probar diferentes modelos y encontrar el que mejor se adapte a tus necesidades.

Comparte este artículo

Subscríbete a nuestro Newsletter

Mantente al día en el mundo de las aplicaciones móviles con nuestro blog especializado.

Artículos semanales

Todas las semanas artículos nuevos sobre el mundo de las aplicaciones móviles.

No spam

No te enviaremos spam, solo contenido de calidad. Puedes darte de baja cuando quieras.

Contenido de calidad

Nada de contenido generado de manera automática usando ChatGPT.

Recomendaciones

Tips indispensables sobre mejores prácticas y metodologías.

© 2025 AsyncLearn