|
| 1 | +--- |
| 2 | +layout: post |
| 3 | +title: "¿Cómo ejecutar modelos de IA locales desde una app WinUI 3?" |
| 4 | +author: Christian Amado |
| 5 | +date: 2025-06-11 00:00:00 -0300 |
| 6 | +category: [Desarrollo de software] |
| 7 | +tags: [WinDev,Windows 11,WinUI 3] |
| 8 | +thumbnail-img: /img/posts/thumbnails/win11.png |
| 9 | +cover-img: /img/posts/cover/win11.png |
| 10 | +share_img: /img/posts/shared/windows.jpg |
| 11 | +--- |
| 12 | + |
| 13 | +La inteligencia artificial está redefiniendo la experiencia del usuario en aplicaciones modernas, y las aplicaciones nativas de **Windows** no son la excepción. Gracias a **ONNX Runtime**, es posible ejecutar modelos de inferencia de manera eficiente **sin necesidad de conectarse a la nube**, lo cual es ideal para escenarios desconectados, privados o de alto rendimiento. |
| 14 | + |
| 15 | +Este artículo muestra cómo integrar un modelo **ONNX** en una aplicación **WinUI 3** utilizando **.NET** y el paquete `Microsoft.ML.OnnxRuntime`. Se presentará un caso práctico de clasificación de imagenes con un modelo preentrenado. |
| 16 | + |
| 17 | +<!--more--> |
| 18 | + |
| 19 | +## Requisitos previos |
| 20 | + |
| 21 | +- Visual Studio 2022 o superior |
| 22 | +- Windows App SDK 1.5+ |
| 23 | +- Modelo ONNX (ej: SqueezeNet v1.1) |
| 24 | +- Paquetes NuGet: |
| 25 | + - `Microsoft.ML.OnnxRuntime` |
| 26 | + - `Microsoft.ML.OnnxRuntime.Managed` |
| 27 | + |
| 28 | +## Paso 1: Preparar el proyecto WinUI 3 |
| 29 | + |
| 30 | +Crear un nuevo proyecto en Visual Studio: |
| 31 | + |
| 32 | +1. Plantilla: **Blank App, Packaged (WinUI 3 in Desktop)** |
| 33 | +2. Nombre: `WinUI3ONNXDemo` |
| 34 | +3. Asegurarse de que el proyecto esté utilizando .NET 6 o superior. |
| 35 | + |
| 36 | +Agregar los paquetes NuGet: |
| 37 | +```bash |
| 38 | +Install-Package Microsoft.ML.OnnxRuntime |
| 39 | +Install-Package Microsoft.ML.OnnxRuntime.Managed |
| 40 | +``` |
| 41 | + |
| 42 | +Agregar el modelo `.onnx` a la carpeta `Assets/Models/` del proyecto y configurar la propiedad **Copy to Output Directory** como `Copy if newer`. |
| 43 | + |
| 44 | +## Paso 2: Cargar el modelo y ejecutar inferencia |
| 45 | + |
| 46 | +Crear una clase de servicio para gestionar la inferencia: |
| 47 | + |
| 48 | +```csharp |
| 49 | +using Microsoft.ML.OnnxRuntime; |
| 50 | +using Microsoft.ML.OnnxRuntime.Tensors; |
| 51 | +using System.Drawing; |
| 52 | + |
| 53 | +public class OnnxImageClassifier |
| 54 | +{ |
| 55 | + private InferenceSession _session; |
| 56 | + |
| 57 | + public OnnxImageClassifier(string modelPath) |
| 58 | + { |
| 59 | + _session = new InferenceSession(modelPath); |
| 60 | + } |
| 61 | + |
| 62 | + public string Classify(float[] input) |
| 63 | + { |
| 64 | + var tensor = new DenseTensor<float>(input, new[] { 1, 3, 224, 224 }); |
| 65 | + var inputMeta = new NamedOnnxValue[] |
| 66 | + { |
| 67 | + NamedOnnxValue.CreateFromTensor("data", tensor) |
| 68 | + }; |
| 69 | + |
| 70 | + using var results = _session.Run(inputMeta); |
| 71 | + var output = results.First().AsEnumerable<float>().ToArray(); |
| 72 | + var max = output.Max(); |
| 73 | + var index = Array.IndexOf(output, max); |
| 74 | + |
| 75 | + return $"Clase {index} - Score: {max:F3}"; |
| 76 | + } |
| 77 | +} |
| 78 | +``` |
| 79 | + |
| 80 | +> Nota: La entrada debe estar normalizada al formato del modelo ONNX (e.g., 224x224, RGB, normalizado entre 0 y 1). Para simplificar, puede utilizarse una librería como `ImageSharp` para preparar los datos. |
| 81 | +
|
| 82 | +## Paso 3: Interfaz en WinUI 3 |
| 83 | + |
| 84 | +En `MainWindow.xaml`, incluir controles para cargar una imagen y mostrar la clasificación: |
| 85 | + |
| 86 | +```xml |
| 87 | +<StackPanel Spacing="12" Padding="24"> |
| 88 | + <Button Content="Seleccionar imagen" Click="OnSelectImageClicked" /> |
| 89 | + <Image x:Name="PreviewImage" Width="300" Height="300" /> |
| 90 | + <TextBlock x:Name="ResultText" FontSize="20" /> |
| 91 | +</StackPanel> |
| 92 | +``` |
| 93 | + |
| 94 | +En `MainWindow.xaml.cs`: |
| 95 | + |
| 96 | +```csharp |
| 97 | +private OnnxImageClassifier _classifier; |
| 98 | + |
| 99 | +public MainWindow() |
| 100 | +{ |
| 101 | + this.InitializeComponent(); |
| 102 | + var modelPath = Path.Combine(AppContext.BaseDirectory, "Assets", "Models", "squeezenet.onnx"); |
| 103 | + _classifier = new OnnxImageClassifier(modelPath); |
| 104 | +} |
| 105 | + |
| 106 | +private async void OnSelectImageClicked(object sender, RoutedEventArgs e) |
| 107 | +{ |
| 108 | + var picker = new FileOpenPicker(); |
| 109 | + picker.FileTypeFilter.Add(".jpg"); |
| 110 | + picker.FileTypeFilter.Add(".png"); |
| 111 | + |
| 112 | + WinRT.Interop.InitializeWithWindow.Initialize(picker, this.GetWindowHandle()); |
| 113 | + var file = await picker.PickSingleFileAsync(); |
| 114 | + |
| 115 | + if (file != null) |
| 116 | + { |
| 117 | + using var stream = await file.OpenStreamForReadAsync(); |
| 118 | + var input = PreprocessImage(stream); // convertir a float[] |
| 119 | + var result = _classifier.Classify(input); |
| 120 | + ResultText.Text = result; |
| 121 | + } |
| 122 | +} |
| 123 | +``` |
| 124 | + |
| 125 | +## Paso 4: Empaquetado y despliegue |
| 126 | + |
| 127 | +- Incluir el modelo `.onnx` en la MSIX. |
| 128 | +- Probar en equipos sin acceso a internet. |
| 129 | +- Verificar uso de CPU o GPU dependiendo del backend de ONNX. |
| 130 | + |
| 131 | +Opcionalmente, agregar soporte a DirectML o delegados personalizados para GPU. |
| 132 | + |
| 133 | +## Conclusión |
| 134 | + |
| 135 | +Gracias a **ONNX Runtime**, las aplicaciones **WinUI 3** pueden ejecutar modelos de inferencia localmente, lo que abre la puerta a aplicaciones de **IA** privadas, desconectadas o de bajo costo de infraestructura. Esta capacidad es particularmente poderosa en escenarios de *Edge Computing*, *kioscos*, diagnósticos offline o soluciones de accesibilidad personalizadas. |
| 136 | + |
| 137 | +La combinación de **IA local + UI nativa** representa uno de los pilares del futuro del ecosistema Windows. |
0 commit comments