<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">><channel><title>Página de inicio on Un sitio solicitado por la comunidad, para la comunidad</title><link>https://jmdaweb.github.io/</link><description>Read the latest Página de inicio on Un sitio solicitado por la comunidad, para la comunidad</description><generator>Hugo -- gohugo.io</generator><language>es-es</language><managingEditor>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</managingEditor><webMaster>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</webMaster><lastBuildDate>Sun, 02 Jun 2024 00:11:57 +0200</lastBuildDate><atom:link href="https://jmdaweb.github.io/index.xml" rel="self" type="application/rss+xml"/><item><title>Perdiendo el miedo a la red oscura: una breve introducción</title><link>https://jmdaweb.github.io/posts/red-oscura/</link><pubDate>Sat, 14 Mar 2026 13:41:00 +0100</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/red-oscura/</guid><description>El otro día, tras montar y probar un par de contenedores con herramientas actualizadas, me sentí preparado para conectar la instancia de la comunidad de NVDA de Mastodon a la red oscura. Me intriga conocer ese lado del fediverso, saber quién monta instancias allí y por qué, ver qué se publica, y dar a mis usuarios la oportunidad de hacer lo mismo. Pero como estos temas traen controversia, decidí preguntar primero, y dar marcha atrás en cuanto alguien dijera que no.</description><content:encoded>
&lt;p>El otro día, tras montar y probar un par de contenedores con herramientas actualizadas, me sentí preparado para conectar la instancia de la comunidad de NVDA de Mastodon a la red oscura. Me intriga conocer ese lado del fediverso, saber quién monta instancias allí y por qué, ver qué se publica, y dar a mis usuarios la oportunidad de hacer lo mismo. Pero como estos temas traen controversia, decidí preguntar primero, y dar marcha atrás en cuanto alguien dijera que no. Y alguien dijo que no, por lo que la misión quedó interrumpida. Pero me pidieron que escribiera sobre el tema, y aquí estamos.&lt;/p>
&lt;p>En esta entrada quiero hablar de Tor e I2P, los dos proyectos que más destacan relacionados con navegar de forma anónima por Internet y evitar la censura impuesta en algunos países. Porque esos son sus propósitos iniciales, aunque luego se usen para otra cosa. Como toda herramienta, se pueden usar bien o usar mal. En este caso, la web oscura ha dado lugar a toda clase de leyendas (y hasta películas de terror) por su mal uso por parte de delincuentes que la emplean para traficar con armas, pornografía, violencia extrema, coordinar asesinatos y a saber qué más. Y no por ello hay que demonizarla, al igual que se hacía con el p2p a principios de siglo, donde estaba extendido el rumor de que en el momento que usaras p2p, la policía se presentaba en tu casa. Por cierto, ¿sabías que al llamar por WhatsApp a un contacto usas P2P? Al final, el término alude a una conexión directa entre dos equipos, simplemente. En fin, no me voy a extender más con ese tema, vamos a lo interesante.&lt;/p>
&lt;h3 id="tor">TOR&lt;/h3>
&lt;p>TOR son las siglas de The Onion Router, el enrutador de la cebolla. Según Wikipedia, su lanzamiento inicial se produjo en septiembre de 2002, así que ya lleva casi un cuarto de siglo entre nosotros. Su objetivo es construir una red sobre Internet donde se preserve el anonimato de las comunicaciones, y el destinatario de las mismas (por ejemplo, un servidor) no conozca su origen (dirección IP del cliente). Esto se consigue montando un circuito formado por varios nodos que cifran y retransmiten las comunicaciones entre origen y destino. Por defecto, un circuito está formado por tres nodos, y añadir más no es garantía de mayor anonimato, pero sí de mayor lentitud. La arquitectura de TOR se podría dividir en los siguientes componentes:&lt;/p>
&lt;ul>
&lt;li>Cliente: se encarga de cifrar las comunicaciones en origen y establecer un circuito de varios nodos. Existe el mito de que un cliente puede redirigir tráfico de la red TOR de otros usuarios. Antes era así, pero ahora es mentira, sólo dirigirá tu propio tráfico hacia donde tú le indiques. El cliente también puede ofrecer servicios ocultos.&lt;/li>
&lt;li>Repetidor: los repetidores son nodos que distribuyen el tráfico por la red TOR. Son mantenidos por voluntarios u organizaciones.&lt;/li>
&lt;li>Nodo de salida: es el nodo que actúa como salida de un circuito. Su propósito es descifrar las comunicaciones, enviarlas a destino, cifrar la respuesta y enviarla de vuelta por el circuito hasta el origen.&lt;/li>
&lt;li>Directorio: el directorio contiene un listado de nodos que actúan como repetidores, nodos de salida, políticas de salida de estos nodos y datos sobre servicios ocultos (explicados más adelante). Existen varios directorios, ya que si hubiera uno solo y fallara, toda la red se caería.&lt;/li>
&lt;/ul>
&lt;p>Un mismo nodo puede ejercer como repetidor, nodo de salida y cliente, y son los que garantizan más anonimato. Sin embargo, requieren diversos trámites para ser incluidos en los directorios y exponen a sus propietarios ante las autoridades, por lo que lo más sencillo es ejecutar simplemente un cliente, que además no requiere que se abran puertos en el router ni ningún otro tipo de configuración.&lt;/p>
&lt;h4 id="clientes-disponibles">Clientes disponibles&lt;/h4>
&lt;p>El programa TOR es un cliente minúsculo que se maneja desde consola y se suele ejecutar como servicio. Si habías oído que TOR es un navegador, te has topado con otro mito. Es habitual confundir TOR con TOR Browser, el navegador recomendado por el proyecto que también lleva TOR incorporado. Veamos cómo instalar y configurar cada uno de ellos en Windows.&lt;/p>
&lt;h5 id="tor-browser">TOR Browser&lt;/h5>
&lt;p>TOR Browser es un navegador web basado en Mozilla Firefox ESR. Es tan accesible con lectores de pantalla como Firefox y, a excepción de algunas opciones de menú y botones propios, tiene la misma interfaz. Tor Browser cuenta, además, con un perfil configurado a medida, extensiones preinstaladas y otras modificaciones cuyo objetivo es lograr un mayor grado posible de anonimato y protección de la privacidad equilibrado con una experiencia de navegación adecuada. Esto significa que podemos configurarlo para que nos proteja aún más de lo que ya lo hace. Por ejemplo, aumentando al grado máximo las restricciones de la extensión Noscript.&lt;/p>
&lt;p>Para descargarlo, podemos acudir a la &lt;a href="https://www.torproject.org/download/languages/">página de descarga de Tor Browser&lt;/a>, buscar la tabla y elegir el instalador de la plataforma que corresponda. En este caso, para Windows de 64 bits, dejo el &lt;a href="https://dist.torproject.org/torbrowser/15.0.9/tor-browser-windows-x86_64-portable-15.0.9.exe">enlace a la versión 15.0.9&lt;/a>, la actual mientras escribo esta guía. No uses este enlace si hay una versión posterior. Como veremos más adelante, mantenerse actualizado en este terreno no es opcional, sino una precaución más. Si quieres actualizar el navegador, conéctalo a la red TOR, ve al menú Ayuda y elige la opción Acerca de, tal y como harías con Firefox.&lt;/p>
&lt;p>El instalador es muy simple. De hecho, lo único que hace es extraer un portable, y crear accesos directos en el escritorio y el menú Inicio. Así que, llegado el momento de desinstalar, será suficiente con borrar la carpeta del portable y los accesos directos. La ubicación de instalación que ofrece de manera predeterminada es el escritorio, y se puede desmarcar la creación de accesos directos para tener todo más organizado. Una vez instalado, para abrirlo, entraremos en la carpeta Tor Browser y ejecutaremos el acceso directo Tor Browser.&lt;/p>
&lt;h6 id="primera-experiencia-de-navegación">Primera experiencia de navegación&lt;/h6>
&lt;p>Al arrancar Tor Browser por primera vez, detectará el idioma del sistema y adaptará su interfaz. Esto significa que desde el principio lo tendremos en español si nuestro sistema está en español. Lo primero que se muestra es una pantalla de conexión, con un botón para conectar, otro de configuración de conexión que casi nunca suele ser necesario, y un interruptor para que se conecte automáticamente al abrir el navegador. Pulsamos el botón Conectar y esperamos a que se complete la conexión. Si quieres desconectarte, cierra el navegador, y TOR se cerrará automáticamente con él.&lt;/p>
&lt;p>Una vez el navegador se ha conectado a la red TOR, podemos abrir cualquier página web que visitemos con frecuencia. Como se establece un circuito de nodos aleatorio, el propietario de la web verá una conexión que se produce incluso desde otros países, y sólo tendrá aquella información que tú quieras proporcionarle. Además, si la conexión es https, añade una capa de cifrado extra para impedir que el propietario de un nodo de salida intercepte y vea claramente tus comunicaciones. Como ejemplo, visita la &lt;a href="https://audiocinemateca.com">página principal de la audiocinemateca&lt;/a>. Observa que tarda un poco más en cargar, pero por lo demás funciona como siempre.&lt;/p>
&lt;p>La primera vez que se visite una página, el navegador preguntará si deseamos solicitar las versiones en inglés de las páginas para mejorar nuestro anonimato. Si has elegido la audiocinemateca como te he indicado, observarás algo más: tiene un servicio cebolla disponible. Esto se debe a que mi servidor le indica a Tor Browser, mediante la cabecera Onion-Location, que ofrezco ese servicio. Dile que &amp;ldquo;Ahora no&amp;rdquo; quieres visitarlo, lo siguiente que haremos será aprender a buscarlos a mano.&lt;/p>
&lt;p>En la red TOR, las personas y entidades que proporcionan servicios también tienen derecho a ser anónimas. Por ello, un cliente puede ofrecer servicios ocultos o servicios cebolla, y sin abrir puertos ni nada que se le parezca. Estos servicios son más seguros que un servidor tradicional, ya que el usuario no abandona la red TOR por ningún nodo de salida para visitarlos. Simplemente, al igual que el usuario establece un circuito de varios nodos, el servicio hace lo propio hasta un punto de encuentro común, y establecen una conexión cifrada.&lt;/p>
&lt;p>En lo que se refiere a web, los servicios ocultos suelen funcionar por http, dejando el cifrado en manos de TOR. Las conexiones seguras por https son poco frecuentes, ya que las pocas entidades que ofrecen certificados son de pago, y en cierto modo la transacción rompe el anonimato de quien ofrece el servicio. Sin embargo, si el propósito de la entidad es únicamente ofrecer una vía más segura y no desea ser tan anónima, https se puede usar y cumple su función de maravilla.&lt;/p>
&lt;p>Cuando una web dispone de un servicio oculto y avisa de ello,Tor Browser mostrará un botón cerca de la barra de direcciones. Estando en la audiocinemateca, pulsa alt+d para ir a la barra de direcciones. Después, pulsa tabulador hasta el botón &amp;ldquo;Añadir esta página a marcadores&amp;rdquo;, y luego flecha derecha. Llegarás a un botón llamado &amp;ldquo;.onion disponible&amp;rdquo;. Si lo pulsas, se recargará la página. Podrás usar la audiocinemateca como siempre, pero en la barra de direcciones verás esto: &lt;code>https://3vynrelomm3k43lqhetkztg2o25eif4hrppodo225gqhvglxv3bc7jqd.onion/&lt;/code>. Poco intuitivo, ¿verdad? Es el valor hash de una clave pública. En la red TOR, por desgracia, no se pueden comprar ni usar nombres de dominio. Si acaso, algún servicio más caro de lo que querríamos pagar ofrece la posibilidad de generar certificados hasta que la clave pública comience por las letras o palabras deseadas.&lt;/p>
&lt;p>Existen montones de servicios ocultos sin un equivalente en la web ordinaria. En esta entrada no hablaremos de ellos, pero sí aprenderás a montar el tuyo propio. Para todo lo demás, busca por ahí.&lt;/p>
&lt;h5 id="tor-sin-navegador">TOR, sin navegador&lt;/h5>
&lt;p>Como dijimos, TOR es un pequeño programa independiente que se puede instalar y usar como cualquier otro programa. A mí me gusta compilarlo desde el código fuente, pero es una tarea algo compleja cuya explicación queda fuera del propósito de esta entrada. Cuando se ejecuta por sí solo, TOR ofrece un proxy de tipo SOCKS5 en el puerto 9050. Se puede configurar cualquier aplicación que use TCP y tenga soporte de servidores proxy para que se conecte a través de la red TOR. La configuración de puertos, maneras de usar la red y otros ajustes es demasiado extensa para explicarla, pero los valores por defecto son razonablemente seguros como punto de partida.&lt;/p>
&lt;p>Para descargar la versión más reciente, podemos acudir a la &lt;a href="https://www.torproject.org/download/tor/">página de descarga de TOR&lt;/a> y elegir la expert bundle más adecuada para nuestra plataforma. La versión actual es la 0.4.9.6 y, de nuevo, advertimos que debe mantenerse actualizada por seguridad. Si no tienes tiempo de actualizar, es mejor que TOR permanezca apagado. La plataforma también importa, no sólo por rendimiento, sino por capacidad criptográfica. Dicho de otro modo: no elijas TOR para Windows de 32 bits si tu Windows es de 64.&lt;/p>
&lt;p>Una vez descargado, vamos a descomprimirlo en una ubicación conocida. Por ejemplo &lt;code>C:\tor&lt;/code>. Al hacerlo, deberíamos ver 3 subcarpetas: data, tor y docs. A continuación, crearemos un fichero de configuración. Con tu editor favorito, crea el archivo &lt;code>C:\tor\torrc&lt;/code> y añade el siguiente contenido:&lt;/p>
&lt;pre tabindex="0">&lt;code>GeoIPFile C:\tor\data\geoip
GeoIPv6File C:\tor\data\geoip6
AvoidDiskWrites 1
ControlPort 9051
CookieAuthentication 1
DataDirectory C:\tor\data
TruncateLogFile 1
log notice file C:\tor\data\tor.log
&lt;/code>&lt;/pre>&lt;p>Con estos ajustes, le indicamos a TOR algunas rutas básicas, le pedimos que no escriba en disco si puede evitarlo, y que borre el archivo de registro anterior cuando se reinicie. También le indicamos el puerto donde podrá recibir instrucciones de control (si usamos software compatible con ello) y la forma de autentificarse al conectar por dicho puerto. Ahora, instalaremos el servicio. Para ello, sigue estos pasos:&lt;/p>
&lt;ol>
&lt;li>Abre una consola como administrador. Pulsa &lt;code>Windows+r&lt;/code>, escribe &lt;code>cmd&lt;/code> y pulsa &lt;code>control+shift+intro&lt;/code>.&lt;/li>
&lt;li>Navega a la carpeta de TOR: &lt;code>cd C:\tor&lt;/code>.&lt;/li>
&lt;li>Instala el servicio, indicando dónde está la configuración: &lt;code>tor\tor --service install --options -f C:\tor\torrc&lt;/code>.&lt;/li>
&lt;li>Si todo ha ido bien, el servicio se instalará y se pondrá en marcha. Utiliza la consola de &lt;code>services.msc&lt;/code> para gestionar su modo de arranque, iniciarlo y detenerlo, como harías con cualquier servicio.&lt;/li>
&lt;/ol>
&lt;p>Ahora que has instalado TOR, puedes configurar el proxy de tu navegador usando el tipo SOCKS5, host 127.0.0.1 y puerto 9050. Puedes, pero te recomendamos que no lo hagas. Recuerda protegerte bien y usar un navegador especializado, o una app que tenga cualquier otro propósito, o un entorno suficientemente controlado por tu parte.&lt;/p>
&lt;p>Para desinstalar TOR, ejecuta este comando como administrador: &lt;code>C:\tor\tor\tor --service remove&lt;/code>. Si lo deseas, borra a continuación su carpeta.&lt;/p>
&lt;h6 id="nuestro-primer-servicio-oculto-un-servidor-de-nvda-remote">Nuestro primer servicio oculto: un servidor de NVDA Remote&lt;/h6>
&lt;p>Cada cliente TOR puede ofrecer a la red tantos servicios ocultos como quiera. Los más conocidos son sitios web, pero también se pueden levantar servidores de correo electrónico, chat, o cualquier cosa que admita conexiones TCP. Al contrario que sucede con los programas cliente, los servidores no tienen que estar preparados para ningún tipo de proxy. A todos los efectos, sus conexiones entrantes llegarán siempre por 127.0.0.1, y un puerto aleatorio, por lo que por esa vía no podremos identificar a nuestros visitantes. Vamos a preparar un servidor de NVDA Remote siguiendo estos pasos:&lt;/p>
&lt;ol>
&lt;li>Instala un servidor de NVDA Remote en Windows (&lt;a href="https://nvda.es/documentacion/guia-de-usuario-del-servidor-de-nvda-remote/">usa esta guía&lt;/a>). Genera un certificado nuevo para él y ponlo en marcha.&lt;/li>
&lt;li>Crea una carpeta para el servicio oculto, por ejemplo &lt;code>C:\tor\data\remote&lt;/code>.&lt;/li>
&lt;li>Edita el archivo torrc, que dejamos en la carpeta &lt;code>C:\tor&lt;/code> y añade el servicio oculto.&lt;/li>
&lt;li>Reinicia TOR.&lt;/li>
&lt;li>Accede a la carpeta que creaste para el servicio, y observa que ahora tiene algunos archivos. Abre el archivo hostname con un editor de texto. Su contenido es la dirección del servicio oculto recién creado, que se puede compartir o publicar según sea necesario.&lt;/li>
&lt;/ol>
&lt;p>Sí, lo sé, no he explicado qué hay que añadir al archivo torrc, no quería que se me descuadrara la lista de pasos. Simplemente, pon estas líneas:&lt;/p>
&lt;pre tabindex="0">&lt;code>HiddenServiceDir C:\tor\data\remote
HiddenServiceEnableIntroDoSDefense 1
HiddenServicePort 6837 127.0.0.1:6837
&lt;/code>&lt;/pre>&lt;p>Estas líneas pueden repetirse tantas veces como sea necesario para añadir varios servicios. Mantén a salvo la carpeta del servicio, ya que contiene información sensible que un atacante podría usar para replicarlo, como las claves privadas. Si borras o pierdes la carpeta, perderás esa dirección de servicio sin posibilidad de recuperación.&lt;/p>
&lt;p>Ahora, en NVDA, instala los complementos &lt;a href="https://nvda.es/2022/05/15/telenvda/">TeleNVDA&lt;/a> y &lt;a href="https://nvda.es/2021/01/08/soporte-proxy/">Soporte proxy&lt;/a>. Abre las opciones de NVDA y ve a la categoría Proxy. En el grupo &amp;ldquo;Todo el tráfico&amp;rdquo;, indica que usarás un proxy de tipo SOCKSv5, dirección localhost, y puerto 9050. Para finalizar el experimento, conéctate con TeleNVDA indicando la dirección de tu servicio oculto en el campo &amp;ldquo;Equipo o servidor&amp;rdquo;. Observa que aunque tanto tu copia de NVDA como el servidor están en el mismo ordenador, la conexión se establece pasando por un circuito bastante extenso, por lo que irá lenta.&lt;/p>
&lt;h3 id="i2p">I2P&lt;/h3>
&lt;p>I2P se define a sí mismo como &amp;ldquo;el Internet invisible&amp;rdquo;. Su propósito es similar al de TOR: crear una red cifrada sobre Internet que permita una navegación anónima y privada. Sin embargo, tiene varias diferencias que debemos conocer:&lt;/p>
&lt;ul>
&lt;li>No está pensado para visitar servicios fuera de I2P: existen algunos nodos de salida para navegar por la web, pero pueden funcionar de forma intermitente. I2P se centra más en los contenidos de la propia red I2P.&lt;/li>
&lt;li>Es una red distribuida: mientras que TOR tiene directorios centrales, I2P dispone de una base de datos de red descentralizada a lo largo de enrutadores con buen ancho de banda, ejecutados por voluntarios y elegidos aleatoriamente por la red. Sus únicos puntos centrales son los servidores de resembrado, utilizados para conectar a la red a nuevos nodos que se ejecutan por primera vez.&lt;/li>
&lt;li>Las direcciones de los servicios I2P son también valores hash de claves públicas, pero se pueden personalizar mucho más que las .onion. Cada enrutador I2P dispone de una libreta de direcciones, que asocia nombres de servicios a hashes de claves, similar al archivo hosts de un sistema operativo.&lt;/li>
&lt;li>Cada usuario, por defecto, participa en la red redirigiendo tráfico de otros usuarios y formando parte de uno o varios túneles, lo que mejora el anonimato. Para ello, se cede ancho de banda de nuestra conexión. Como veremos, este comportamiento se puede desactivar para usar la red como nodo oculto. En condiciones óptimas en las que se cede ancho de banda, I2P requiere un puerto aleatorio abierto en el router. Si el router dispone de UPNP y lo tiene activado, I2P gestionará este puerto por sí mismo.&lt;/li>
&lt;li>No hay ninguna entidad que expida certificados SSL válidos. Los certificados son menos habituales que en TOR, y están autofirmados.&lt;/li>
&lt;/ul>
&lt;p>El enrutador principal ofrecido por el proyecto I2P está programado en Java. Se trata de una solución autocontenida, más pesada que TOR, que incluye aplicaciones como un cliente de correo, un cliente BitTorrent y un servidor web propios, todos ellos centrados en preservar el anonimato y la privacidad. La consola del enrutador está traducida a español, y permite configurar, activar y desactivar módulos y túneles según sea necesario. Nuevamente, es tan extenso que no vamos a explicar todo. De hecho, puesto que la interfaz es más intuitiva y la documentación tiene una buena parte traducida, no hablaremos de cómo crear un servicio oculto propio. Veamos cómo instalarlo paso a paso en Windows.&lt;/p>
&lt;h4 id="instalación-de-java">Instalación de Java&lt;/h4>
&lt;p>Como todo buen software basado en Java, el primer paso para que I2P funcione es instalar Java. La versión 8, la que tradicionalmente se instala desde java.com, ya no es válida. Se necesita Java 17 o posterior. La versión actual más reciente es la 26, y su instalador se puede obtener desde el siguiente enlace:&lt;/p>
&lt;p>&lt;a href="https://download.oracle.com/java/26/latest/jdk-26_windows-x64_bin.exe">Descarga el JDK de Java 26&lt;/a>&lt;/p>
&lt;p>La instalación no tiene mucho misterio, tan sólo hay que seguir las pantallas del asistente. Si dispones de varios entornos Java, asegúrate de que Java 26 es el que se ofrece por defecto. Desde una consola, ejecuta el comando &lt;code>java -version&lt;/code> para averiguarlo. Si aparece una versión anterior, modifica las variables de entorno del sistema, en particular path y, si existe, JAVA_HOME. Para acabar, agrega los archivos java.exe y javaw.exe al firewall de Windows para que puedan operar sin restricciones.&lt;/p>
&lt;h4 id="instalación-de-i2p">Instalación de I2P&lt;/h4>
&lt;p>I2P no es tan portable como TOR. Ofrece dos modalidades de instalador: un archivo de gran tamaño con Java incorporado y ciertos plugins de navegador, y un instalador más sencillo que depende de Java y no incorpora tantos elementos. Por suerte o por desgracia, el segundo es el más accesible, tanto durante la instalación como después, así que es el que usaremos.&lt;/p>
&lt;p>La versión actual de I2P es la 2.11. Puedes &lt;a href="https://files.i2p.net/2.11.0/i2pinstall_2.11.0_windows.exe">descargar el instalador con este enlace directo&lt;/a>, o &lt;a href="https://i2p.net/es/downloads/">visitar la página de descargas&lt;/a> en caso de que haya una versión más reciente.&lt;/p>
&lt;p>El instalador es intuitivo. Tan sólo hay que seguir las pantallas del asistente, con una particularidad: en la pantalla de selección de componentes debemos buscar la tabla y marcar la casilla &amp;ldquo;Windows service&amp;rdquo;. El servicio de Windows es la forma más accesible de gestionar el funcionamiento de I2P.&lt;/p>
&lt;p>Una vez creados los accesos directos, llegaremos a la última pantalla. Tras pulsar el botón &amp;ldquo;Hecho&amp;rdquo;, el servicio se pondrá en marcha por sí solo e I2P estará listo para funcionar.&lt;/p>
&lt;p>Para desinstalar I2P, navega a la ruta &amp;ldquo;C:\Program Files\i2p&amp;rdquo; y ejecuta el archivo uninstall_i2p_service_winnt.bat. Esto desinstalará el servicio, al igual que install_i2p_service_winnt.bat lo reinstala de nuevo. Después, ejecuta el archivo uninstaller.jar que hay dentro de la carpeta uninstaller. Desde consola, se puede ejecutar &lt;code>java -jar uninstaller.jar&lt;/code>. La configuración de i2p y todos los datos, por su parte, se encuentran en &amp;ldquo;C:\Program data\i2p&amp;rdquo;, y deben eliminarse a mano.&lt;/p>
&lt;p>En cuanto a las actualizaciones, se descargan y se instalan por sí solas de forma transparente mientras el servicio esté en marcha. Es recomendable dejar encendido el gestor de torrents, ya que se usa como canal de intercambio por defecto.&lt;/p>
&lt;h4 id="configuración-inicial-de-i2p">Configuración inicial de I2P&lt;/h4>
&lt;p>Ahora que el servicio de I2P está en marcha, podemos acceder a la consola web. Para ello, se puede abrir el acceso directo &amp;ldquo;I2P router console&amp;rdquo; que hay en el escritorio o, desde un navegador, se puede visitar la siguiente dirección: &lt;a href="http://localhost:7657">http://localhost:7657&lt;/a>&lt;/p>
&lt;p>La primera pantalla que se mostrará al entrar es la selección de idioma. Se puede omitir la configuración inicial, pero es recomendable no hacerlo y seguir el asistente hasta el final. Las pruebas de ancho de banda, si bien es cierto que también se recomiendan, pueden omitirse para no revelar a M-Lab nuestra dirección ip. Al completarlas, I2P sugerirá unos valores máximos de entrada y salida, y nos preguntará cuánto ancho de banda deseamos compartir. El valor predeterminado es 80%, pero se puede bajar al 0. No obstante, esto todavía no oculta nuestro enrutador.&lt;/p>
&lt;p>Para evitar formar parte de túneles de otros enrutadores, visitaremos la &lt;a href="http://localhost:7657/confignet">página de configuración de red de la consola&lt;/a>, elegiremos la opción &amp;ldquo;Modo oculto - no se publica la IP (evita el tráfico participante)&amp;rdquo; y pulsaremos el botón Guardar cambios. Desde este momento, I2P ya no requiere puertos abiertos al exterior, ni usará UPNP para redirigirlos cuando esté disponible. El &amp;ldquo;modo portátil&amp;rdquo; también puede ser útil si istalamos I2P en un ordenador portátil y cambiamos con frecuencia de red.&lt;/p>
&lt;h4 id="la-libreta-de-direcciones">La libreta de direcciones&lt;/h4>
&lt;p>El potencial de I2P radica en sus servicios ocultos. Por defecto, al igual que sucede en TOR, la dirección de un servicio oculto es el hash de una clave pública, acabado en &amp;ldquo;.b32.i2p&amp;rdquo;. Por ejemplo, la dirección de la audiocinemateca en I2P es &lt;code>huffwds7ecz2atf2kzljvykkazoper444ehrp5nfkgdxgzkrp2oq.b32.i2p&lt;/code>. Gracias a la libreta de direcciones, se puede crear un nombre más amigable, como &lt;code>audiocinemateca.i2p&lt;/code>, mucho más sencillo de memorizar, escribir en la barra de direcciones del navegador y almacenar en marcadores.&lt;/p>
&lt;p>La libreta de direcciones se gestiona desde su &lt;a href="http://localhost:7657/susidns/index">página correspondiente en la consola&lt;/a>. Hay cuatro tipos de libretas:&lt;/p>
&lt;ul>
&lt;li>Privada: contiene un listado de direcciones que no queremos compartir con otros usuarios de I2P.&lt;/li>
&lt;li>Local: contiene un listado de direcciones propio que se puede compartir con otros usuarios.&lt;/li>
&lt;li>Publicada: contiene direcciones que se publican para que otros usuarios puedan sincronizar su libreta con la nuestra, siempre que estemos sirviendo un sitio web por I2P y hayamos dado permiso para compartirla. Se sincroniza con la local, pero no tiene por qué coincidir con ella.&lt;/li>
&lt;li>Router I2P: contiene direcciones obtenidas de un servicio de suscripción.&lt;/li>
&lt;/ul>
&lt;p>En la página de suscripciones podemos gestionar desde qué servicios se actualiza la libreta del enrutador. Por defecto se ofrece uno, mantenido por el proyecto I2P y con muy pocas entradas. A continuación dejo algunos más que se pueden agregar debajo:&lt;/p>
&lt;pre tabindex="0">&lt;code>http://notbob.i2p/hosts-all.txt
http://reg.i2p/export/hosts-all.txt
http://skank.i2p/hosts.txt
http://stats.i2p/cgi-bin/newhosts.txt
&lt;/code>&lt;/pre>&lt;p>La audiocinemateca está registrada en varios de estos servicios, por lo que tan pronto como se sincronicen, podrás entrar escribiendo &lt;code>audiocinemateca.i2p&lt;/code> en la barra de direcciones del navegador.&lt;/p>
&lt;p>Existe una forma alternativa y rápida de añadir entradas si no podemos o no queremos sincronizar libretas externas. El propietario de un sitio web puede proporcionarnos un enlace como este: &lt;code>http://audiocinemateca.i2p/?i2paddresshelper=huffwds7ecz2atf2kzljvykkazoper444ehrp5nfkgdxgzkrp2oq.b32.i2p&lt;/code>.&lt;/p>
&lt;p>Al visitarlo con el navegador, aparecerá una ventana de la consola preguntando qué queremos hacer. Se puede agregar la entrada a cualquiera de las libretas disponibles, o no hacer nada y simplemente navegar al destino.&lt;/p>
&lt;h4 id="configuración-del-navegador">Configuración del navegador&lt;/h4>
&lt;p>Hasta ahora, hemos configurado el enrutador de I2P, un proceso que no entraña riesgos de seguridad. Los riesgos vienen al navegar, a pesar de que el propio enrutador ofrece una serie de protecciones para mitigarlos, como la eliminación de ciertas cabeceras http. A grandes rasgos, el proceso consiste en configurar el navegador para que utilice el proxy http que hay en la dirección 127.0.0.1, puerto 4444. Sin embargo, en este apartado vamos a hacer algo más: configurar un perfil alternativo sólo para navegar por aquí, manteniendo el resto de nuestros datos bien asegurados y apartados en el perfil por defecto. El navegador, por supuesto, será Firefox en su última versión. Sigue estos pasos:&lt;/p>
&lt;ol>
&lt;li>Pulsa Windows+r para abrir el diálogo Ejecutar, escribe &lt;code>firefox -p&lt;/code> y pulsa &lt;code>intro&lt;/code>. Aparecerá una ventana de selección de perfil.&lt;/li>
&lt;li>Crea un nuevo perfil con el nombre que prefieras. Por ejemplo, puedes llamarlo i2p.&lt;/li>
&lt;li>Selecciona el perfil en la lista y pulsa &lt;code>intro&lt;/code> para usarlo. Firefox arrancará como si se hubiera instalado por primera vez.&lt;/li>
&lt;li>Configura Firefox para que sea tan privado como permitan las opciones.&lt;/li>
&lt;li>Ve a los ajustes de Firefox, pulsa el botón &amp;ldquo;Configuración&amp;rdquo; que hay en la primera pantalla e indica los datos del proxy, que redirigirá tanto el tráfico http como el https. Recuerda: el host es 127.0.0.1 o localhost, y el puerto 4444.&lt;/li>
&lt;li>Navega por la red I2P con normalidad (y con cuidado).&lt;/li>
&lt;/ol>
&lt;p>Para dejar de navegar por I2P, vuelve a ejecutar &lt;code>firefox -p&lt;/code> y regresa al perfil por defecto.&lt;/p>
&lt;p>A continuación, enumero algunas configuraciones y consejos que pueden ser útiles para aumentar el grado de privacidad:&lt;/p>
&lt;ul>
&lt;li>Instalar la extensión noscript y configurarla en modo estricto, exactamente como hicimos con Tor Browser.&lt;/li>
&lt;li>Activar el modo permanente de navegación privada.&lt;/li>
&lt;li>Bloquear todos los rastreadores y cookies, quitando las excepciones de la protección máxima. No te preocupes, las webs funcionarán.&lt;/li>
&lt;li>Deshabilitar las protecciones contra software fraudulento o descargas peligrosas, así como el envío de informes de error, y la recomendación de extensiones y funciones mientras se navega. De esa forma se reduce el envío de datos a Mozilla.&lt;/li>
&lt;li>Deshabilitar la reproducción de contenido con DRM.&lt;/li>
&lt;li>La casilla &amp;ldquo;Pedir a los sitios web que no compartan ni vendan mis datos&amp;rdquo; parece útil, pero sólo envía una cabecera http extra, no nos aportará nada.&lt;/li>
&lt;li>Existen ajustes adicionales para reducir nuestra exposición en general y nuestra huella de navegación, pero deben activarse en about:config.&lt;/li>
&lt;li>Para otros servicios de I2P que no sean web, tales como correo, chat o intercambio de archivos, se recomienda usar las aplicaciones de la consola en la medida de lo posible.&lt;/li>
&lt;/ul>
&lt;p>Si no tienes claro qué ajustes modificar, puedes usar este &lt;a href="https://jmdaweb.github.io/user.js.zip">archivo user.js&lt;/a>. Descomprímelo y cópialo en la raíz de tu carpeta de perfil, por ejemplo &lt;code>C:\users\usuario\appData\roaming\mozilla\firefox\profiles\i2p&lt;/code>. Está basado en el archivo user.js de Arkenfox, con algunos cambios hechos al final y comentados en español. Los ajustes de proxy vienen configurados para usar Privoxy por el puerto 8118, que es justo lo que veremos a continuación.&lt;/p>
&lt;h3 id="cómo-usar-privoxy-para-conectar-una-aplicación-a-tor-e-i2p-a-la-vez">Cómo usar Privoxy para conectar una aplicación a TOR e I2P a la vez&lt;/h3>
&lt;p>Imagina un escenario más práctico y menos anónimo donde queremos que un navegador seguro, o una aplicación de otro tipo, pueda navegar por Internet con normalidad sin enrutar tráfico por Tor o I2P, pero al mismo tiempo pueda acceder a sitios .i2p y servicios .onion. Aquí entra en juego Privoxy.&lt;/p>
&lt;p>Privoxy es un proxy de exploración de la web sin caché, que incluye acciones y filtros para bloquear anuncios, mejorar la privacidad y editar contenido web al vuelo mientras navegamos. Para lograr el objetivo que nos hemos propuesto no editaremos filtros ni acciones, por lo que funcionará como un proxy casi neutral. Simplemente, nos apoyaremos en sus capacidades de redirigir tráfico según la URL buscada.&lt;/p>
&lt;p>Para instalar Privoxy en Windows, se puede &lt;a href="https://www.privoxy.org/sf-download-mirror/Win32/4.1.0/privoxy_4.1.0.zip">descargar la versión 4.1.0 como un archivo zip&lt;/a>. Consulta la &lt;a href="https://www.privoxy.org/">página principal de Privoxy&lt;/a> para descargar una versión posterior, si la hay.&lt;/p>
&lt;p>Ahora, descomprimimos el archivo zip en una carpeta cualquiera, por ejemplo la raíz de nuestro disco duro. De esa forma, todos los ficheros del programa quedarán en &lt;code>C:\privoxy_4.1.0&lt;/code>.&lt;/p>
&lt;p>El siguiente paso es editar el fichero de configuración config.txt que se encuentra en la carpeta de Privoxy. Si lo deseas, haz una copia del original por si quisieras usar Privoxy de otra manera en el futuro. El fichero debe vaciarse por completo, y quedar sólo con estas líneas:&lt;/p>
&lt;pre tabindex="0">&lt;code>forward . .
forward-socks5t .onion 127.0.0.1:9050 .
forward .i2p 127.0.0.1:4444
&lt;/code>&lt;/pre>&lt;p>Teniendo la configuración lista, instalamos el servicio. Desde una consola con privilegios de administrador navegamos a la carpeta de Privoxy. Una vez allí, ejecutamos este comando: &lt;code>privoxy --install&lt;/code>. Aparecerá una ventana con un mensaje de confirmación, ivitándonos a entrar en la consola &lt;code>services.msc&lt;/code> para gestionar el servicio. Y es precisamente allí donde podremos iniciarlo, sin necesidad de retoques adicionales.&lt;/p>
&lt;p>Para acabar, llega el turno de los clientes. Aunque no es el ideal, seguiremos poniendo como ejemplo el navegador. Si configuraste en la sección anterior un perfil de Firefox adicional, tan sólo deberás usarlo y reconfigurar el proxy en los ajustes de Firefox. Cambia el puerto 4444 por el 8118, ¡y a navegar! Podrás comprobar que accedes a cualquier web sin dificultad, y también a dominios .i2p y .onion.&lt;/p>
&lt;h3 id="precauciones-al-navegar-por-la-red-oscura">Precauciones al navegar por la red oscura&lt;/h3>
&lt;p>Al navegar por Internet existen multitud de peligros, y la red oscura no es una excepción. A todos los ataques habituales debemos sumar uno más: la gente va a actuar de forma proactiva para averiguar quién eres: desde el dueño de un servicio oculto que quiera conocer a sus clientes, hasta los operadores de telefonía o las autoridades. De hecho, saber quién eres puede llegar a ser incluso más importante que saber qué haces. Aunque no te importe que se sepa tu identidad y hagas cosas dentro de la ley, conviene que tengas en cuenta lo siguiente:&lt;/p>
&lt;ul>
&lt;li>Los scripts son un vector de ataque: me gusta decir que la web oscura es el reino de los elementos nativos. Una buena web en un servicio oculto debe tener Javascript como algo, si acaso, opcional si quiere dar un buen servicio a sus visitantes. Angular, React y cualquier otro framework están fuera de lugar aquí.&lt;/li>
&lt;li>El tamaño de pantalla, las media queries de css, la carga de contenido multimedia en un formato específico, e incluso las cabeceras http pueden contener elementos dirigidos a identificarte. Algo tan simple como una hoja de estilos que diferencie entre enlaces visitados o no visitados puede lanzar una conexión con una URL concreta y decirle al dueño del servicio que ya has estado ahí.&lt;/li>
&lt;li>Por tanto, además de Javascript, se recomienda desactivar también el historial y las cookies.&lt;/li>
&lt;li>Si necesitas habilitar todo o parte de lo anterior, asegúrate de que el servicio es de confianza, y rebaja las protecciones sólo para ese servicio, por ejemplo añadiéndolo como excepción en las opciones del navegador.&lt;/li>
&lt;li>Usa siempre un navegador suficientemente seguro, como TOR Browser. Evita navegadores basados en Chromium, como Brave. Aunque estén preparados para TOR y lo lleven incorporado, envían más telemetría y datos por ahí fuera de los que deben.&lt;/li>
&lt;li>No utilices estas tecnologías en empresas o equipos de empresa. Los antivirus suelen reaccionar mal, el personal de seguridad también, y el de recursos humanos probablemente también.&lt;/li>
&lt;li>Ten respeto, pero no miedo. No hay que bajar la guardia en estas redes, pero tampoco asustarse. Si realmente te asusta entrar en este terreno o no crees tener los conocimientos suficientes, lo mejor es que no toques.&lt;/li>
&lt;li>Mantén todo el software actualizado. Es una obligación, no es opcional. Cada nueva versión de TOR o I2P mejora el cifrado, la gestión de la red, y puede corregir agujeros críticos de seguridad.&lt;/li>
&lt;/ul>
&lt;h3 id="al-final-no-has-respondido-a-la-pregunta-qué-implica-conectar-mastodon-a-la-red-oscura">Al final no has respondido a la pregunta: ¿qué implica conectar Mastodon a la red oscura?&lt;/h3>
&lt;p>Para ti, como usuario, ningún cambio perceptible. Desde la configuración de perfil se pueden bloquear los dominios .onion y .i2p para no interactuar con ellos. Por otro lado, esta conexión abriría la posibilidad de seguir cuentas de instancias ocultas, conversar con ellas y conocer una parte de Internet a la que actualmente no tenemos acceso. Sin embargo, también entraña riesgos. Como hemos visto, crear dominios es una tarea muy sencilla, y si alguien decide enviar spam o acosar, detenerlo puede ser más complicado que en la red habitual. También puede que algunas conversaciones no aparezcan completas desde otras instancias no conectadas a la red oscura.&lt;/p>
&lt;h3 id="referencias">Referencias&lt;/h3>
&lt;ul>
&lt;li>&lt;a href="https://es.wikipedia.org/wiki/Tor_(red_de_anonimato)">Artículo de TOR en la Wikipedia&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://support.torproject.org/es/about-tor/">Acerca de TOR en la web del proyecto&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://i2p.net/es/">Página principal de I2P&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://i2p.net/es/docs/">Documentación de I2P&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://www.privoxy.org/">Página principal de Privoxy&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://www.privoxy.org/user-manual/index.html">Manual de usuario de Privoxy&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://github.com/mastodon/mastodon/blob/main/priv-config">Fichero de configuración priv-config usado en Mastodon&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://github.com/arkenfox/user.js">Fichero user.js de Arkenfox&lt;/a>&lt;/li>
&lt;/ul></content:encoded></item><item><title>Cómo trabajar con la pantalla apagada usando Virtual Display Driver</title><link>https://jmdaweb.github.io/posts/apagar-pantalla/</link><pubDate>Fri, 26 Dec 2025 10:30:00 +0100</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/apagar-pantalla/</guid><description>La pantalla del ordenador es ese periférico que siempre está mostrando algo. Nunca falla, no puede permitírselo. Si lo hace, es porque falla el sistema entero. Es la piedra angular de cualquier ordenador, cualquier sistema, cualquier aplicación. He visto portátiles en casi perfectas condiciones desechados sólo porque la pantalla estaba rota. Así que suena absurdo trabajar con ella apagada. Tan absurdo que los fabricantes, con el paso de los años, han ido acabando con cualquier mínima posibilidad que pudiera existir de desactivarla.</description><content:encoded>
&lt;p>La pantalla del ordenador es ese periférico que siempre está mostrando algo. Nunca falla, no puede permitírselo. Si lo hace, es porque falla el sistema entero. Es la piedra angular de cualquier ordenador, cualquier sistema, cualquier aplicación. He visto portátiles en casi perfectas condiciones desechados sólo porque la pantalla estaba rota. Así que suena absurdo trabajar con ella apagada. Tan absurdo que los fabricantes, con el paso de los años, han ido acabando con cualquier mínima posibilidad que pudiera existir de desactivarla. Porque ¿quién querría hacer algo así? Pues sin ir más lejos, un usuario ciego que no la necesita, como yo.&lt;/p>
&lt;p>Trabajar con la pantalla apagada tiene múltiples ventajas. La principal, sin duda alguna, es la privacidad. Nos suele gustar usar el PC sin que alguien se acerque discretamente y vea lo que estamos haciendo. Y por desgracia, pasa con más frecuencia de la que parece. No es la primera vez que la gente me pregunta por qué no se ve nada y si el ordenador está realmente encendido, y no será la última. Pero como la privacidad no lo es todo, también tenemos otro buen motivo para querer apagarla: la exposición prolongada a una luz que no vemos y que, a largo plazo, acaba afectando a nuestra salud.&lt;/p>
&lt;p>Hasta el descubrimiento que presento en esta entrada, y que hice ayer mismo, sólo conocía estas tres formas de desactivar la pantalla, cada una con sus pros y sus contras. Hablamos de la pantalla de un portátil. Evidentemente, en equipos de sobremesa, la solución es tan simple como darle al interruptor o tirar del cable:&lt;/p>
&lt;ul>
&lt;li>Bajar el brillo al 0%: reducir la luminosidad puede funcionar mejor o peor, dependiendo de la marca. La luz será menos dañina y el consumo de energía disminuirá, pero es posible que todavía se siga viendo el contenido con el que interactuamos.&lt;/li>
&lt;li>Utilizar una segunda pantalla que no está conectada: la mayoría de portátiles con Windows vienen con un conector para usar una pantalla adicional. Podemos pulsar la combinación &lt;code>windows+p&lt;/code> y elegir &amp;ldquo;Sólo segunda pantalla&amp;rdquo;. Si todo va bien, el sistema puede preguntar si queremos conservar o revertir los cambios, o efectuar el cambio de pantalla sin preguntar nada. El problema es que casi nunca va bien, ya que las tarjetas gráficas y los sistemas operativos más recientes son capaces de identificar si realmente hay una segunda pantalla conectada y, si no es así, el proceso no continúa. Otro punto en contra va relacionado con la resolución de la nueva pantalla, que tiene un impacto a la hora de navegar por el escritorio, la web, y otras aplicaciones. Como única gran ventaja, eso sí, tenemos que la pantalla principal se desactiva por completo, ahorrando energía. Si el equipo tiene conector VGA, o se usa un adaptador HDMI a VGA, este método funcionará siempre.&lt;/li>
&lt;li>Cortinas de pantalla: ciertos lectores de pantalla, como Jaws for Windows, NVDA y VoiceOver, incluyen una función llamada cortina de pantalla. Al activarla no se apaga la pantalla, sino que sus píxeles emiten de manera uniforme el mismo contenido, de tal manera que no se ve nada. Esto no reduce el consumo de energía, pero es una solución eficaz para preservar nuestra privacidad. No obstante, no está exenta de problemas. Y es que la cortina se activa a nivel de software, por lo que la pantalla tampoco se verá al realizar tareas tales como aplicar OCR, compartir en videollamada el escritorio o tomar capturas de pantalla. Las capturas aparecerán vacías, y el OCR no encontrará texto.&lt;/li>
&lt;/ul>
&lt;p>La solución óptima siempre ha sido utilizar una tarjeta gráfica simulada a la que se conecten pantallas simuladas. El problema es que no existía, y cuando existió no la conocimos&amp;hellip; hasta hace poco. El nombre no es muy original, pero tampoco importa: se trata de &lt;a href="https://github.com/VirtualDrivers/Virtual-Display-Driver">Virtual Display Driver&lt;/a>.&lt;/p>
&lt;h3 id="pasos-para-configurar-virtual-display-driver">Pasos para configurar Virtual Display Driver&lt;/h3>
&lt;p>En primer lugar, deberemos disponer de tres cosas importantes: el propio driver, una cuenta con privilegios de administrador, y un sistema Windows 10 o posterior X64 o ARM64. Para descargar el driver, se puede visitar la &lt;a href="https://github.com/VirtualDrivers/Virtual-Display-Driver/releases/latest">página de la última release en GitHub&lt;/a> y descargar el archivo vdd.control en la lista que hay bajo el botón desplegable &amp;ldquo;Assets&amp;rdquo;. Por ejemplo, y para ahorrar tiempo, aquí está la &lt;a href="https://github.com/VirtualDrivers/Virtual-Display-Driver/releases/download/25.7.23/VDD.Control.25.7.23.zip">descarga directa de la versión 25.7.23&lt;/a>, la más reciente en el momento en que escribo esta entrada.
Ahora que tenemos todo lo necesario, se pueden seguir estos pasos:&lt;/p>
&lt;ol>
&lt;li>Extraemos el archivo zip descargado a una carpeta en la raíz de la unidad del sistema. Por ejemplo, &lt;code>C:\virtualMonitor&lt;/code>.&lt;/li>
&lt;li>Accedemos a la carpeta, y ejecutamos el archivo &lt;code>VDD Control.exe&lt;/code>. Aparecerá una alerta de escritorio seguro.&lt;/li>
&lt;li>La interfaz no es muy accesible, pero tiene un cuadro de texto con información de depuración, y algo que por suerte podemos usar: una barra de menú.&lt;/li>
&lt;li>En la barra de menú, vamos a &amp;ldquo;Virtual Display Driver&amp;rdquo;, luego a &amp;ldquo;System&amp;rdquo;, y finalmente a &amp;ldquo;Install Driver&amp;rdquo;. Aparecerá una advertencia de Windows preguntando si queremos instalar el controlador, ya que el firmante no es de confianza. Pulsamos Instalar, y al hacerlo, escucharemos que un nuevo dispositivo se conecta. ¡Nuestra nueva pantalla virtual está lista! Se puede desinstalar el driver del mismo modo, eligiendo la opción &amp;ldquo;Uninstall driver&amp;rdquo;.&lt;/li>
&lt;li>Pulsa el botón con una x para salir de la aplicación.&lt;/li>
&lt;/ol>
&lt;h3 id="hora-de-apagar-la-pantalla">Hora de apagar la pantalla&lt;/h3>
&lt;p>Una vez esté todo instalado, podemos pulsar &lt;code>windows+p&lt;/code>. En la lista, observaremos que está seleccionada la opción &amp;ldquo;Duplicar&amp;rdquo;. Bajamos hasta &amp;ldquo;Solo segunda pantalla&amp;rdquo;, pulsamos intro, y la pantalla principal se apagará. Sin embargo, esta nueva pantalla comienza por defecto con una resolución de 800x600. Desde Configuración &amp;gt; Sistema &amp;gt; Pantalla, y tras seleccionar la pantalla 2, se puede modificar a un valor más adecuado, como 1920x1080, y conservar los cambios al acabar. Para encender la pantalla, es suficiente con pulsar &lt;code>Windows+p&lt;/code> de nuevo, elegir en la lista &amp;ldquo;Solo pantalla de PC&amp;rdquo; y pulsar intro.&lt;/p>
&lt;h3 id="posibles-problemas">Posibles problemas&lt;/h3>
&lt;p>Si el driver o la aplicación de control no funcionan, puede deberse a la falta de librerías en el sistema. Tal y como mencionan sus autores en GitHub, se deben instalar las versiones más recientes de Microsoft .Net Runtime y Microsoft Visual C++ Redistributable. Por ahora, no explicaremos cómo hacerlo, pero en el futuro se podría ampliar esta sección.&lt;/p>
&lt;p>Si has llegado hasta aquí siguiendo todos los pasos, ahora puedes apagar la pantalla de tu portátil de la mejor forma posible: físicamente, ahorrando energía, sin impacto en las aplicaciones, y con la garantía de que se mantiene tu privacidad en todo momento. Es hora de que las miradas, ya sean discretas o indiscretas, vayan al lugar que les corresponde: los portátiles de los demás.&lt;/p>
&lt;p>¡A disfrutar!&lt;/p></content:encoded></item><item><title>Cómo usar GeForce Experience con lectores de pantalla: una guía que jamás debió ser escrita</title><link>https://jmdaweb.github.io/posts/geforce/</link><pubDate>Fri, 25 Oct 2024 14:25:00 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/geforce/</guid><description>Actualización: a partir de noviembre de 2024, GeForce Experience queda obsoleto en favor de la nueva aplicación de NVIDIA, que es más accesible con lectores de pantalla. No obstante, se mantiene el contenido por motivos históricos. Como se dijo en una entrada anterior, los controladores son una parte esencial de nuestro sistema que no debemos descuidar. Son los encargados de gestionar la relación entre el sistema operativo y los distintos componentes del equipo, y deben mantenerse actualizados siempre que sea posible.</description><content:encoded>
&lt;p>Actualización: a partir de noviembre de 2024, GeForce Experience queda obsoleto en favor de la nueva aplicación de NVIDIA, que es más accesible con lectores de pantalla. No obstante, se mantiene el contenido por motivos históricos.
Como se dijo en &lt;a href="https://jmdaweb.github.io/posts/driverpack">una entrada anterior&lt;/a>, los controladores son una parte esencial de nuestro sistema que no debemos descuidar. Son los encargados de gestionar la relación entre el sistema operativo y los distintos componentes del equipo, y deben mantenerse actualizados siempre que sea posible. Esto lo sabe muy bien NVidia, que permite mantener al día los controladores de sus tarjetas gráficas mediante la aplicación GeForce Experience; una aplicación que antes era accesible, y ahora no. En este caso, no utilizo el término &amp;ldquo;accesible&amp;rdquo; como consultor de accesibilidad, sino como usuario. Si entramos a analizar el cumplimiento de las WCAG, incluso en su versión 2.0, estoy seguro de que aquello fallaría por todos lados. Así que en este caso empleo el término &amp;ldquo;accesible&amp;rdquo; como accesible para personas ciegas, una simplificación errónea pero conveniente para la historia que nos ocupa, y muy extendida en el colectivo.
GeForce Experience es una aplicación con una interfaz hecha a base de HTML, CSS y JavaScript, que se ejecuta sobre un control de navegador web en una ventana independiente. A priori esto es fantástico, porque un usuario de lector de pantalla puede recorrerla con los modos foco y exploración y acceder a todos sus contenidos. En un momento dado, alguien en NVidia tuvo la maravillosa idea de añadir atributos aria-hidden a todos los componentes. Los posibles porqués pueden ser muchos. Tal vez fue una configuración errónea de una biblioteca de terceros. Tal vez querían proteger su interfaz de programas automatizados, que aprovechan las APIs de las tecnologías de asistencia. Sea como fuere, NVidia demostró que la accesibilidad no le preocupaba demasiado. Nadie allí dentro pensó que las personas ciegas también usan tarjetas gráficas.&lt;/p>
&lt;h2 id="espera-un-momento-jose-que-yo-tampoco-había-caído-para-qué-quiere-un-ciego-una-tarjeta-gráfica">Espera un momento, Jose, que yo tampoco había caído. ¿Para qué quiere un ciego una tarjeta gráfica?&lt;/h2>
&lt;p>Supongo que, si lo explico ahora, no tendré que explicarlo luego. Puede parecer que, como no vemos, no necesitamos tarjetas gráficas decentes, pero nada más lejos de la realidad. Hoy en día se usan para muchas otras cosas:&lt;/p>
&lt;ul>
&lt;li>Ejecutar videojuegos accesibles que no van a rebajar sus requisitos gráficos.&lt;/li>
&lt;li>Usar modelos de inteligencia artificial aprovechando la potencia de la tarjeta.&lt;/li>
&lt;li>Minar criptomonedas.&lt;/li>
&lt;li>Usar Jaws for Windows, un lector de pantalla que todavía depende de la tarjeta gráfica para obtener ciertos datos.&lt;/li>
&lt;li>Ejecutar software que requiere una resolución de pantalla determinada.&lt;/li>
&lt;li>Mejorar el rendimiento general del sistema.&lt;/li>
&lt;/ul>
&lt;p>Ahora que ya hemos abordado el problema y demás prejuicios, entremos en las soluciones que podemos aplicar para conseguir el objetivo: actualizar los controladores. Ya que la parte de iniciar sesión con una cuenta NVidia es accesible, nos olvidaremos de ella.&lt;/p>
&lt;h2 id="primer-método-de-memoria-y-a-ciegas">Primer método: de memoria y a ciegas&lt;/h2>
&lt;p>Tras abrir GeForce Experience, NVDA nos anunciará que estamos en un &amp;ldquo;documento&amp;rdquo;, como sucedería en cualquier página web. El único texto visible en ese documento es &amp;ldquo;common-crimsion-window&amp;rdquo;, que no nos dice absolutamente nada. Para actualizar los controladores, procedemos del siguiente modo:&lt;/p>
&lt;ol>
&lt;li>Activamos el modo foco. Es importante no pulsar tabulador antes de activarlo.&lt;/li>
&lt;li>Si recorremos la ventana con tabulador, veremos dos botones etiquetados como &amp;ldquo;main-tab-label&amp;rdquo; antes de un botón &amp;ldquo;notificationButton&amp;rdquo;. Pulsamos el segundo para ir a la pantalla de controladores. Importante, no confundir con los botones &amp;ldquo;mainTab&amp;rdquo;, que también existen.&lt;/li>
&lt;li>Si habíamos recibido la notificación de que había un controlador nuevo para instalar, es posible que la actualización ya esté descargada y preparada. Tabulamos hasta un botón llamado &amp;ldquo;express-driver-install&amp;rdquo; y lo activamos.&lt;/li>
&lt;li>Aparecerá un diálogo del control de cuentas de usuario. Al confirmarlo, la instalación continuará por sí sola.&lt;/li>
&lt;li>Mientras se instala, navegamos al escritorio y regresamos a GeForce Experience para que el foco pueda volver a navegar por la interfaz.&lt;/li>
&lt;li>Sabremos que la instalación se acerca a su fin porque el controlador gráfico se reinicia. En este momento, NVDA puede decir una o varias veces la palabra &amp;ldquo;horizontal&amp;rdquo;. Al acabar, aparecerá un diálogo modal, que logra atrapar el foco en su interior si llegamos hasta él.&lt;/li>
&lt;li>Llegados a este punto, puede que GeForce Experience nos pida reiniciar el equipo, o puede que no. Lo sabremos por la cantidad de botones en el diálogo de finalización:
&lt;ul>
&lt;li>Si sólo aparece un botón &amp;ldquo;updatesInstallerDialog-2&amp;rdquo;, podemos pulsarlo, cerrar GeForce Experience y dar el proceso por concluido hasta la próxima actualización.&lt;/li>
&lt;li>Si aparecen los botones &amp;ldquo;updatesInstallerDialog-1&amp;rdquo; y &amp;ldquo;updatesInstallerDialog-2&amp;rdquo;, el segundo reiniciará el equipo, así que cuidado! Para salir sin reiniciar, se debe pulsar el primero.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ol>
&lt;h2 id="segundo-método-destripar-la-aplicación-para-adaptarla-a-nuestras-necesidades">Segundo método: destripar la aplicación para adaptarla a nuestras necesidades&lt;/h2>
&lt;p>Esto no siempre funciona, pero esta vez sí, así que aprovechemos! Al principio de la entrada dijimos que el responsable del problema es el atributo aria-hidden. Vamos a deshacernos de él. Para ello, necesitaremos acceso como administrador, y un editor de texto plano, como Notepad++, que pueda ejecutarse con privilegios elevados.&lt;/p>
&lt;p>En primer lugar, abrimos el archivo &lt;code>C:\Program Files\NVIDIA Corporation\NVIDIA GeForce Experience\www\index.html&lt;/code>. En él, buscamos la siguiente línea:&lt;/p>
&lt;pre tabindex="0">&lt;code>&amp;lt;div ui-view layout=&amp;#34;column&amp;#34; flex aria-label=&amp;#34;crimsion-window-space&amp;#34; aria-hidden=&amp;#34;true&amp;#34;&amp;gt;&amp;lt;/div&amp;gt;
&lt;/code>&lt;/pre>&lt;p>Cambiamos el atributo aria-hidden de true a false y guardamos. A continuación, editamos &lt;code>C:\Program Files\NVIDIA Corporation\NVIDIA GeForce Experience\www\app.js&lt;/code>. En este caso, debemos usar la función de buscar y reemplazar con los siguientes textos:&lt;/p>
&lt;ul>
&lt;li>&lt;code>aria-hidden=true&lt;/code> se sustituye por &lt;code>aria-hidden=false&lt;/code>&lt;/li>
&lt;li>&lt;code>aria-hidden=&amp;quot;true&amp;quot; se sustituye por &lt;/code>aria-hidden=&amp;ldquo;false&amp;rdquo;`&lt;/li>
&lt;/ul>
&lt;p>Tras guardar los cambios, la mayor parte de la interfaz de GeForce Experience volverá a ser accesible con lectores de pantalla. O al menos, tan accesible como puede serlo una interfaz sin textos alternativos adecuados y con otras etiquetas bastante mejorables. Es posible que sigan haciendo falta algunas de las instrucciones de la sección anterior.
Es importante tener en cuenta que esta adaptación no durará para siempre. Si GeForce Experience se actualiza, habrá que volver a repetirla. Por suerte, las actualizaciones de controlador llegan con más frecuencia que las de la aplicación, por lo que tendremos unos meses de respiro.&lt;/p>
&lt;h2 id="tercer-método-pasar-completamente-de-la-aplicación-y-las-cuentas-nvidia">Tercer método: pasar completamente de la aplicación y las cuentas NVidia&lt;/h2>
&lt;p>Si conoces el modelo exacto de tu tarjeta gráfica y sabes que hay una actualización, puedes visitar &lt;a href="https://www.nvidia.com/en-us/geforce/drivers/">esta página&lt;/a> y hacerte con los controladores actualizados. El instalador se puede manejar bastante bien, y su interfaz no oculta controles por defecto.&lt;/p>
&lt;h2 id="conclusión">Conclusión&lt;/h2>
&lt;p>En esta entrada hemos visto cómo parchear GeForce Experience o recurrir a métodos alternativos para actualizar los controladores de la tarjeta gráfica a ciegas. GeForce Experience resulta ser la alternativa más cómoda para actualizar, pero no es accesible con lectores de pantalla, lo que supone una barrera insalvable para la mayoría de usuarios. Se requieren conocimientos avanzados para llevar a cabo las prácticas explicadas en secciones anteriores, y nunca se deben utilizar documentos como este para justificar que un producto es accesible &amp;ldquo;porque los ciegos modifican los archivos, cambian un atributo aquí y otro allí y al final se las arreglan&amp;rdquo;.&lt;/p>
&lt;p>He sentido mucha pena y vergüenza (de la ajena, que no de la propia) mientras escribía esto. Pena porque sé que hay usuarios que tendrían que leer este documento, no lo harán y continuarán atascados en un problema sin solución aparente. Vergüenza porque, en pleno 2024, con una norma UNE en Europa y varias directivas, y con la Section 508 en Estados Unidos, NVidia sigue sin tener en cuenta la accesibilidad y se deja potenciales clientes fuera. Espero que en el futuro la situación cambie, y a ser posible para mejor.&lt;/p>
&lt;p>¡Gracias por leer!&lt;/p></content:encoded></item><item><title>¿Conoces la URA de tu ayuntamiento?</title><link>https://jmdaweb.github.io/posts/ura/</link><pubDate>Sun, 08 Sep 2024 12:36:53 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/ura/</guid><description>He decidido rescatar este hilo. Lo escribí en Twitter, un 4 de octubre de 2022, y tuvo bastante difusión (si lo comparamos con todo lo que escribía habitualmente). Dos años después, han cambiado muy pocas cosas. No obstante, he editado algunas publicaciones para reflejar esos cambios.
¿Conoces la URA de tu ayuntamiento? Yo tampoco. Posiblemente, no tenga. Pero espera, Jose, ¿qué es eso de una URA? URA significa unidad responsable de accesibilidad, y es obligatoria en todas las administraciones públicas.</description><content:encoded>
&lt;p>He decidido rescatar este hilo. Lo escribí en Twitter, un 4 de octubre de 2022, y tuvo bastante difusión (si lo comparamos con todo lo que escribía habitualmente). Dos años después, han cambiado muy pocas cosas. No obstante, he editado algunas publicaciones para reflejar esos cambios.&lt;/p>
&lt;blockquote>
&lt;p>¿Conoces la URA de tu ayuntamiento? Yo tampoco. Posiblemente, no tenga. Pero espera, Jose, ¿qué es eso de una URA? URA significa unidad responsable de accesibilidad, y es obligatoria en todas las administraciones públicas. Venga, vamos a hablar de ellas.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>En el año 2018 se aprobó el RD 1112/2018. Todos lo conocemos. Los sitios web de las administraciones públicas deben cumplir con el nivel AA de las WCAG 2.1, salvo excepciones. Las aplicaciones móviles, a partir del 23 de junio de 2021, también. Pero ¿qué administraciones?&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>La administración general del estado, las de las comunidades autónomas, las entidades locales, las entidades del sector público y las asociaciones constituidas por las mismas. Y todas deben tener una URA, según el artículo 16.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>La URA atiende todas las quejas, reclamaciones y consultas relacionadas con la accesibilidad. También elabora informes periódicos, actividades de promoción y concienciación, y es el punto de contacto con el observatorio de accesibilidad web.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Todas las URAs deben enviar 3 informes anuales al observatorio desde el año 2020 (artículo 19). Y todas las administraciones públicas deben disponer de una declaración de accesibilidad. Desde el año 2018. Sin plazos, sin fechas límite, desde que entró en vigor el decreto.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Cuando se habla de accesibilidad, es raro no oír la frase de &amp;ldquo;Queda mucho por hacer&amp;rdquo;. Y claro que queda mucho, porque lo que hay que hacer se suele quedar sin hacer, así que siempre sigue ahí.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>La teoría sobre el papel es preciosa, ahora vayamos a la práctica. Otra frase que se oye mucho es &amp;ldquo;la accesibilidad no interesa a nadie&amp;rdquo;. Y es casi verdad, al menos no tiene la prioridad que debería. Nuestros políticos, sin importar su color, no se la dan. Pero demostrémoslo con hechos.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Aquí hay un listado con todas las URAs actuales: &lt;a href="https://administracionelectronica.gob.es/pae_Home/pae_Estrategias/pae_Accesibilidad/implantacion-rd-1112-2018/unidades-responsables-de-accesibilidad.html">https://administracionelectronica.gob.es/pae_Home/pae_Estrategias/pae_Accesibilidad/implantacion-rd-1112-2018/unidades-responsables-de-accesibilidad.html&lt;/a>&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>A nivel general parece que la cosa va bien. Y a nivel autonómico. De las universidades tampoco nos podemos quejar.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>En el excel aparecen 43 universidades (si sumamos la CRUE), y todas tienen URA. Me llama la atención que una de ellas la tenga en márqueting: &lt;a href="https://administracionelectronica.gob.es/pae_Home/dam/jcr:7f6d8a92-ff4e-4327-b8bf-92fc8aa93960/2021227_Designaciones_URA_-_Universidad.xlsx">https://administracionelectronica.gob.es/pae_Home/dam/jcr:7f6d8a92-ff4e-4327-b8bf-92fc8aa93960/2021227_Designaciones_URA_-_Universidad.xlsx&lt;/a>&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Pero bueno, es su obligación tenerla y la tienen. También es obligación de todos los municipios tenerla, y aquí el panorama cambia: &lt;a href="https://administracionelectronica.gob.es/pae_Home/dam/jcr:8b847de9-4b58-4493-8deb-ea4f357985d5/20220921_Designaciones_URA_-_EELL.xlsx">https://administracionelectronica.gob.es/pae_Home/dam/jcr:8b847de9-4b58-4493-8deb-ea4f357985d5/20220921_Designaciones_URA_-_EELL.xlsx&lt;/a>&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Con fecha de 21 de septiembre de 2022 (el Excel no ha cambiado desde entonces), sólo 347 ayuntamientos tienen URA. Hay 20 grupos de municipios que la dejan en manos de su diputación, y 27 para otras entidades.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Pero según esta web, en 2019 había&amp;hellip; 8131 municipios en total en España: &lt;a href="https://es.statista.com/estadisticas/633516/numero-de-municipios-segun-numero-de-habitantes-espana/">https://es.statista.com/estadisticas/633516/numero-de-municipios-segun-numero-de-habitantes-espana/&lt;/a>&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>¿Qué puede estar pasando? A lo mejor los pueblos pequeños no pueden permitírsela y hay bastantes, ¿no? Eso explicaría por qué Madrid capital no la tiene.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>A lo mejor es algo que se lleva a nivel provincial. Eso explicaría por qué en Ciudad Real la tienen 2 o 3 pueblos de tamaño similar al mío y el resto no. Nótense las ironías.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>El caso es que 6 años después de su implantación, y con alguna que otra bronca de por medio metiendo prisa, muchos sitios web de las AAPP siguen sin ser accesibles. Pero al menos tendrán declaración de accesibilidad, ¿no? Me fijo en los dos municipios donde resido habitualmente.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Me voy a Fuenlabrada y encuentro esta declaración. Algo obsoleta ya y haciendo referencia a una UNE de 2015, pero al menos se pusieron las pilas 2 meses después del hilo original en Twitter: &lt;a href="https://www.ayto-fuenlabrada.es/web/portal/accesibilidad">https://www.ayto-fuenlabrada.es/web/portal/accesibilidad&lt;/a>&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Y me voy a Socuéllamos, y directamente no encuentro. ¿Para qué la iban a meter? ¿Qué es eso de accesibilidad? ¿Se come? &lt;a href="https://socuellamos.es/">https://socuellamos.es/&lt;/a>&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>¿Y cómo es una URA en los sitios donde existe? Dice el decreto lo siguiente: &amp;ldquo;Las funciones que corresponda desarrollar a las Unidades responsables de accesibilidad serán asignadas a Unidades ya existentes&amp;rdquo;. Traducción: ni presupuesto extra, ni personal extra.&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Resumen: cada uno tira como puede con lo que puede y cuando se acuerda. Y nadie hace nada para cambiarlo. Sabiendo esto, ¿cómo obligamos a las empresas privadas a que sean accesibles? ¿Con otra ley que quede bien de cara a Europa y no se aplique?&lt;/p>
&lt;/blockquote>
&lt;blockquote>
&lt;p>Ahora tenemos la Ley 11/2023. Sé de primera mano que, al menos, el sector bancario sí se la toma en serio. Pero está claro que no ocurrirá lo mismo con todas las empresas obligadas a cumplirla. Si me baso en los antecedentes, no queda otra que ser pesimista. De aquí a unos años nueva ley, nueva prórroga, y vuelta a empezar. Ojalá me equivoque.&lt;/p>
&lt;/blockquote></content:encoded></item><item><title>Cómo visualizar y crear archivos ZIM, una buena alternativa para almacenar sitios web fuera de línea</title><link>https://jmdaweb.github.io/posts/archivos-zim/</link><pubDate>Sun, 04 Aug 2024 19:40:45 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/archivos-zim/</guid><description>Si buscas en cualquier buscador información para descargar sitios web completos, encontrarás montones de tutoriales que recomiendan toda clase de programas. Este es sólo uno más, que he querido escribir tras encontrarme por casualidad con el formato ZIM, el tipo de archivo que usa la Wikipedia para volcar todo su contenido y permitir su uso sin conexión. Pero espera, ¿quién querría descargar un sitio web entero y para qué? Tal vez, más personas de las que crees.</description><content:encoded>
&lt;p>Si buscas en cualquier buscador información para descargar sitios web completos, encontrarás montones de tutoriales que recomiendan toda clase de programas. Este es sólo uno más, que he querido escribir tras encontrarme por casualidad con el formato ZIM, el tipo de archivo que usa la Wikipedia para volcar todo su contenido y permitir su uso sin conexión. Pero espera, ¿quién querría descargar un sitio web entero y para qué? Tal vez, más personas de las que crees. Visitar un sitio web previamente descargado puede tener ventajas, como las siguientes:&lt;/p>
&lt;ul>
&lt;li>La más obvia: se puede navegar por el sitio cuando no hay conexión. Por ejemplo, si hay caídas de la red o estamos en una zona con escasa cobertura.&lt;/li>
&lt;li>La velocidad de carga no es un problema, incluso si la conexión es lenta.&lt;/li>
&lt;li>Se llevan al máximo conceptos tales como la privacidad y el anonimato al navegar&amp;hellip; al menos, para el propietario del sitio web en cuestión, que nunca sabrá que lo estamos visitando.&lt;/li>
&lt;li>Si el sitio web se actualiza y pierde contenido, se conserva una copia con toda la información.&lt;/li>
&lt;li>Se puede visitar el sitio web incluso cuando su propietario ha decidido eliminarlo.&lt;/li>
&lt;/ul>
&lt;p>En esta entrada haremos algo muy similar a lo que hace &lt;a href="https://archive.org">el gran archivo de Internet&lt;/a> con su &lt;a href="https://web.archive.org">Wayback Machine&lt;/a>, pero a mucha menor escala y en un formato de fichero distinto, por suerte para nuestros discos duros. Y como es habitual, lo haremos acompañados de un lector de pantalla, preferiblemente NVDA. ¡Empezamos!&lt;/p>
&lt;h2 id="requisitos-previos">Requisitos previos&lt;/h2>
&lt;p>Para seguir y comprender adecuadamente las distintas secciones de esta entrada, se recomienda lo siguiente:&lt;/p>
&lt;ul>
&lt;li>Experiencia manejando la consola, ya sea cmd, bash o PowerShell. Muchas de las instrucciones dadas pueden aplicarse en casi cualquier plataforma.&lt;/li>
&lt;li>La utilidad de línea de comandos wget (sólo si quieres crear tus propios archivos ZIM). Puede emplearse desde Windows con MSYS2 o WSL, o en Linux. Se encuentra como paquete en la mayoría de distribuciones, y también podría estar disponible para Windows de forma independiente.&lt;/li>
&lt;li>Si utilizas lector de pantalla, se recomienda destreza con la navegación por objetos, uso del cursor de revisión, o mecanismos equivalentes.&lt;/li>
&lt;/ul>
&lt;h2 id="introducción-al-formato-zim">Introducción al formato ZIM&lt;/h2>
&lt;p>El &lt;a href="https://wiki.openzim.org/wiki/OpenZIM">proyecto OpenZIM&lt;/a> define el formato ZIM como &amp;ldquo;un formato de archivo perfectamente adecuado para guardar la Wikipedia en un pen drive USB&amp;rdquo;. Pero parece que no sólo se aplica a la Wikipedia, sino a cualquier contenido en la web que pueda almacenarse sin conexión.
Un archivo ZIM contiene en su interior ficheros HTML codificados en UTF-8, enlazados adecuadamente entre sí y con todos los recursos asociados: hojas de estilo, imágenes, contenido multimedia, ficheros descargables y scripts. Una web alojada en uno de estos archivos debe ser autosuficiente, eliminando por completo o reduciendo al máximo la interactividad, los comportamientos dinámicos y la dependencia del exterior. Los archivos ZIM contienen metadatos sobre el nombre de la web, su creador, su idioma y una descripción del contenido, entre otros, y facilitan al software que los interpreta la posibilidad de realizar búsquedas de texto completo.&lt;/p>
&lt;h2 id="cómo-leer-un-archivo-zim-existente">Cómo leer un archivo ZIM existente&lt;/h2>
&lt;p>Aunque es un formato poco común, la &lt;a href="https://library.kiwix.org/">biblioteca de Kiwix&lt;/a> contiene montones de archivos ZIM que se pueden visualizar y descargar. La Wikipedia, por su parte, vuelca periódicamente todos sus contenidos en &lt;a href="https://dumps.wikimedia.org/other/kiwix/zim/wikipedia/">esta dirección&lt;/a>. Y efectivamente, en un pen drive de 128 GB cabrían las versiones en inglés y español juntas con todos sus recursos. Pero en este tutorial trabajaremos con algo más manejable: un &lt;a href="https://jmdaweb.github.io/nvda-addons.zim">pequeño archivo ZIM&lt;/a> preparado para la ocasión. En la última sección aprenderemos a crearlo, pero ahora veamos cómo acceder a su contenido.
Existen varios programas que pueden abrir archivos ZIM. Se pueden descargar en el &lt;a href="https://kiwix.org/en/applications/">catálogo de aplicaciones de Kiwix&lt;/a>. En general son fáciles de usar, y cada uno tiene sus ventajas y desventajas.&lt;/p>
&lt;h3 id="kiwix-desktop">Kiwix desktop&lt;/h3>
&lt;p>Kiwix Desktop es un cliente de escritorio compatible con Windows y Linux. Permite cargar archivos ZIM individuales y gestionar una biblioteca completa. En Windows, su proceso de instalación es tan sencillo como &lt;a href="https://download.kiwix.org/release/kiwix-desktop/kiwix-desktop_windows_x64.zip">descargar la versión más reciente&lt;/a>, descomprimirla en la carpeta donde queramos alojar el programa, y abrir el archivo ejecutable. En las distribuciones de Linux más populares, se puede instalar con pacman, dnf o apt. Y si eso no nos convence, también hay una versión para instalar con flatpack.
La interfaz de Kiwix Desktop está basada en el framework QT5. Al manejarla con teclado, el tabulador no llega a todos los elementos disponibles, pero tiene algunos atajos que podemos usar. Por ejemplo, control+o para abrir un archivo. La mayoría de los controles están etiquetados, y con navegador de objetos se pueden alcanzar las zonas a las que el foco no llega por sí solo.
A pesar de que se diseñó para ser intuitivo y amigable, la lectura de contenido con Kiwix Desktop dista mucho de ser cómoda con lectores de pantalla. Los documentos no se muestran en un búfer virtual que se pueda recorrer en modo exploración, y sólo se escucha parte del texto al tabular y pasar por encima de un enlace. Además, Kiwix Desktop no soporta scripts en los archivos ZIM. De todos los lectores, es sin duda el más restrictivo.&lt;/p>
&lt;h3 id="kiwix-js-y-extensiones-de-navegador">Kiwix JS y extensiones de navegador&lt;/h3>
&lt;p>Esta alternativa puede ser la más equilibrada en términos de accesibilidad y facilidad de uso. Kiwix JS es una aplicación que se entrega de múltiples formas. Elige la que más te guste, el resultado en todos los casos será muy similar:&lt;/p>
&lt;ul>
&lt;li>&lt;a href="https://pwa.kiwix.org/">Aplicación web progresiva en el navegador&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://www.microsoft.com/store/apps/9P8SLZ4J979J">Aplicación Electron en la tienda Microsoft&lt;/a>&lt;/li>
&lt;li>Extensiones para &lt;a href="https://chrome.google.com/webstore/detail/kiwix/donaljnlmapmngakoipdmehbfcioahhk">Chrome&lt;/a>, &lt;a href="https://addons.mozilla.org/en-US/firefox/addon/kiwix-offline/">Firefox&lt;/a> y &lt;a href="https://microsoftedge.microsoft.com/addons/detail/kiwix/jlepddlenlljlnnhjinfaciabanbnjbp">Edge&lt;/a>.&lt;/li>
&lt;/ul>
&lt;p>En los casos donde el navegador esté involucrado, puede que ciertas características de seguridad limiten partes del contenido, lo que no impedirá leer la mayoría de los archivos. Kiwix JS se puede usar sin problema en modo exploración. Algunos de sus controles, dependiendo de la versión que elijas, pueden estar no etiquetados. Sin embargo, el botón para seleccionar un archivo ZIM está claramente identificado. La primera vez que carguemos un archivo, Kiwix indicará que no procede de un lugar seguro, y permitirá elegir si nos fiamos del contenido o si, por el contrario, compensa más abrirlo en modo restringido.
Una vez se abra el archivo, el contenido aparecerá en un marco. La accesibilidad a la hora de leer y navegar, llegados a este punto, ya sólo dependerá del contenido.&lt;/p>
&lt;h3 id="kiwix-tools">Kiwix-tools&lt;/h3>
&lt;p>Esta es la alternativa más accesible, pero también la más avanzada, ya que implica usar la consola. La principal ventaja es que, una vez en marcha, podemos compartir la URL de acceso con otros usuarios de la red local, o de Internet en general si se configura adecuadamente. En este tutorial no se explica cómo asegurar las conexiones del exterior ni cómo crear un proxy inverso, aunque es el procedimiento recomendado. Nunca expongas el servidor Kiwix directamente en Internet.
Las herramientas de consola de Kiwix (kiwix-tools) permiten realizar búsquedas, gestionar bibliotecas con varios archivos ZIM y levantar servidores accesibles desde otro equipo. En algunas distribuciones de Linux, como Debian, se encuentran en los repositorios oficiales (paquete kiwix-tools). Sin embargo, la versión ofrecida no suele ser la más reciente. Por lo tanto, a continuación se proporcionan los enlaces de descarga directa de la versión actual a fecha de redacción de esta entrada, la 3.7.0-2:&lt;/p>
&lt;ul>
&lt;li>&lt;a href="https://download.kiwix.org/release/kiwix-tools/kiwix-tools_win-i686-3.7.0-2.zip">Windows (sólo 32 bits)&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://download.kiwix.org/release/kiwix-tools/kiwix-tools_linux-aarch64-3.7.0-2.tar.gz">Linux ARM64&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://download.kiwix.org/release/kiwix-tools/kiwix-tools_linux-i586-3.7.0-2.tar.gz">Linux i586&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://download.kiwix.org/release/kiwix-tools/kiwix-tools_linux-x86_64-3.7.0-2.tar.gz">Linux x86_64&lt;/a>&lt;/li>
&lt;/ul>
&lt;p>De nuevo, no hace falta instalación. Tan sólo basta con descomprimir las herramientas en la carpeta deseada y ejecutar desde consola las que queramos. Por ejemplo, podemos usar kiwix-serve para servir por red el archivo ZIM descargado anteriormente con un comando como este:&lt;/p>
&lt;p>&lt;code>./kiwix-serve nvda-addons.zim&lt;/code>&lt;/p>
&lt;p>El contenido estará disponible en &lt;a href="http://localhost">localhost por el puerto 80&lt;/a>, o en la dirección ip del servidor, si es un equipo remoto. El servidor kiwix-serve dispone de algunos parámetros extra que se pueden pasar al ejecutarlo:&lt;/p>
&lt;ul>
&lt;li>&lt;code>--library archivo.xml&lt;/code>: sirve para cargar bibliotecas con varios archivos ZIM. Por ejemplo: &lt;code>kiwix-serve --library biblioteca.xml&lt;/code>&lt;/li>
&lt;li>&lt;code>-i dirección_ip&lt;/code>: limita las direcciones ip en las que escucha el servidor. Por ejemplo: &lt;code>kiwix-serve -i 127.0.0.1 archivo.zim&lt;/code>&lt;/li>
&lt;li>&lt;code>-M&lt;/code>: vigila los cambios de una biblioteca y reacciona actualizándose si la modificamos. Útil para añadir o eliminar archivos ZIM sin reiniciar el servidor. Por ejemplo: &lt;code>kiwix-serve -M --library biblioteca.xml&lt;/code>&lt;/li>
&lt;li>&lt;code>-p puerto&lt;/code>: si el puerto 80 está en uso por otra aplicación, este argumento permite elegir uno distinto. Por ejemplo: &lt;code>kiwix-serve -p 8080 archivo.zim&lt;/code>&lt;/li>
&lt;li>&lt;code>-r prefijo&lt;/code>: cambia el prefijo de URL. Útil si ejecutamos kiwix-serve tras un proxy inverso en un servidor con alojamiento compartido. Ejemplo: &lt;code>kiwix-serve -r /biblioteca/ archivo.zim&lt;/code>. El contenido estaría disponible en http://localhost/biblioteca.&lt;/li>
&lt;/ul>
&lt;p>Por defecto, el servidor retendrá el control de la consola hasta que lo cerremos. Para ello, se puede pulsar control+c. En Linux, se puede cargar como servicio y dejarlo permanentemente en funcionamiento, algo que se sale del ámbito de este tutorial.&lt;/p>
&lt;h4 id="gestión-de-bibliotecas-con-kiwix-manage">Gestión de bibliotecas con kiwix-manage&lt;/h4>
&lt;p>Imaginemos que hemos descargado la Wikipedia en español, la Wikipedia en inglés, el archivo ZIM de ejemplo de este tutorial y algunos más que nos resulten de interés. En vez de ejecutar un número indefinido de instancias de kiwix-serve para mostrarlos, podemos añadirlos a una biblioteca. Para ello, usaremos kiwix-manage:&lt;/p>
&lt;p>&lt;code>kiwix-manage biblioteca.xml add archivo1.zim archivo2.zim archivo3.zim&lt;/code>&lt;/p>
&lt;p>Para agregar el archivo con la web de complementos de NVDA: &lt;code>kiwix-manage biblioteca.xml add nvda-addons.zim&lt;/code>
Ahora, podemos ejecutar el servidor con la biblioteca recién creada: &lt;code>kiwix-serve -M --library biblioteca.xml&lt;/code>
Para visualizar todos los archivos de la biblioteca, se puede usar un comando como este: &lt;code>kiwix-manage biblioteca.xml show&lt;/code>
Cada archivo, entre sus metadatos, tiene un identificador (id) formado por números y letras. Dicho identificador se puede usar para eliminar uno de los archivos: &lt;code>kiwix-manage biblioteca.xml remove identificador&lt;/code>&lt;/p>
&lt;h3 id="lectores-para-android-y-dispositivos-apple">Lectores para Android y dispositivos Apple&lt;/h3>
&lt;p>Si tienes iPhone, iPad o Mac, puedes &lt;a href="https://apps.apple.com/us/app/kiwix/id997079563">descargar Kiwix en la AppStore&lt;/a>. En Android, se puede &lt;a href="https://play.google.com/store/apps/details?id=org.kiwix.kiwixmobile&amp;amp;pli=1">descargar Kiwix en la Play Store&lt;/a>, pero está limitada y no permite abrir archivos ajenos a la biblioteca de Kiwix. Si necesitas esto último, &lt;a href="https://download.kiwix.org/release/kiwix-android/kiwix.apk">descarga el archivo APK directamente&lt;/a>.&lt;/p>
&lt;h2 id="cómo-crear-un-archivo-zim">Cómo crear un archivo ZIM&lt;/h2>
&lt;p>En la sección anterior se proporcionó un archivo ZIM de ejemplo con la web de complementos de NVDA en español alojada por la comunidad internacional, así como herramientas para procesarlo y acceder a su contenido. Ahora, crearemos ese mismo archivo. Para ello es necesario un sistema con Linux y Wget instalado. A diferencia de la sección anterior, esta parte la haremos más guiada.&lt;/p>
&lt;h3 id="descarga-de-zimwriterfs">Descarga de zimwriterfs&lt;/h3>
&lt;p>Zimwriterfs es la herramienta que usaremos para crear archivos ZIM. Forma parte de las zim-tools, que no son tan comunes en los repositorios de las distribuciones como las kiwix-tools vistas antes.
En primer lugar, descargamos la versión más reciente, actualmente la 3.4.2:&lt;/p>
&lt;ul>
&lt;li>&lt;a href="https://download.openzim.org/release/zim-tools/zim-tools_linux-aarch64-3.4.2.tar.gz">Zim-tools para ARM64&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://download.openzim.org/release/zim-tools/zim-tools_linux-i586-3.4.2.tar.gz">Zim-tools para i586&lt;/a>&lt;/li>
&lt;li>&lt;a href="https://download.openzim.org/release/zim-tools/zim-tools_linux-x86_64-3.4.2.tar.gz">Zim-tools para Linux x86_64&lt;/a>&lt;/li>
&lt;/ul>
&lt;p>Asumiendo un sistema x86_64, descomprimimos el archivo descargado y navegamos a la carpeta extraída. Por ejemplo, en nuestra carpeta de usuario, se puede ejecutar este comando: &lt;code>tar -zxf zim-tools_linux-x86_64-3.4.2.tar.gz &amp;amp;&amp;amp; cd zim-tools_linux-x86_64-3.4.2&lt;/code>&lt;/p>
&lt;h3 id="descarga-del-sitio-web">Descarga del sitio web&lt;/h3>
&lt;p>El siguiente paso es hacernos con todos los ficheros de la web que queremos. En la medida de lo posible, estos ficheros deben ser autosuficientes, sin dependencias del exterior. Si una web utiliza PHP para devolver contenido con demasiado dinamismo, o Ajax, es una Single Page Application o se apoya en Angular/VUE/React, probablemente no se pueda descargar por completo usando wget. Por suerte, la web de complementos de NVDA es estática y cumple todos los requisitos para funcionar fuera de línea.
Con este comando, se descargará en una carpeta nueva en la ubicación donde nos encontramos: &lt;code>wget -k -p -r -D addons.nvda-project.org https://addons.nvda-project.org/index.es.html&lt;/code>&lt;/p>
&lt;p>La descarga tardará unos minutos. Mientras tanto, veamos qué significa cada argumento del comando anterior:&lt;/p>
&lt;ul>
&lt;li>&lt;code>-r&lt;/code>: descargar de forma recursiva. Si no lo usamos, se descargaría sólo una página.&lt;/li>
&lt;li>&lt;code>-p&lt;/code>: descargar todos los requisitos necesarios para que la página funcione: imágenes, scripts, hojas de estilo, etc.&lt;/li>
&lt;li>&lt;code>-k&lt;/code>: cuando se complete la descarga, procesar los enlaces de todos los archivos para conectarlos entre sí.&lt;/li>
&lt;li>&lt;code>-D addons.nvda-project.org&lt;/code>: restringir las descargas al dominio addons.nvda-project.org. De lo contrario, ¡wget seguiría recursivamente todos los enlaces que encuentre y se descargaría medio Internet!&lt;/li>
&lt;/ul>
&lt;h3 id="preparación-de-otros-recursos-necesarios">Preparación de otros recursos necesarios&lt;/h3>
&lt;p>Zimwriterfs necesita que se le pasen varios argumentos obligatorios para funcionar. Uno de ellos corresponde a una ilustración de 48x48 en formato png, que no tenemos. Por tanto, debemos diseñarla o buscarla. Para este tutorial, se ha elegido el &lt;a href="https://jmdaweb.github.io/nvda.ico">icono de NVDA&lt;/a>, se ha modificado su tamaño y se ha convertido en png. Hay muchos programas que facilitan esta tarea, como Irfanview. No profundizaremos en los pasos necesarios. Al finalizar la conversión, dejaremos el archivo &lt;a href="https://jmdaweb.github.io/nvda.png">nvda.png&lt;/a> dentro de la carpeta addons.nvda-project.org que contiene la web descargada en el paso anterior.&lt;/p>
&lt;h3 id="creación-del-archivo-zim">Creación del archivo ZIM&lt;/h3>
&lt;p>Ya sólo faltan un par de comandos para completar la creación de nuestro archivo. Sin embargo, para prepararlos, debemos tener claros los metadatos. Esto es lo que zimwriterfs espera recibir obligatoriamente:&lt;/p>
&lt;ul>
&lt;li>Un breve nombre interno.&lt;/li>
&lt;li>El archivo html principal. En nuestro caso, &lt;code>index.es.html&lt;/code>&lt;/li>
&lt;li>La ruta a la ilustración del paso anterior.&lt;/li>
&lt;li>Idioma: código de idioma en formato ISO639-3. Por ejemplo eng para inglés, fra para francés, o spa para español.&lt;/li>
&lt;li>Título: un breve título de 30 caracteres o menos.&lt;/li>
&lt;li>Descripción: una breve descripción del contenido.&lt;/li>
&lt;li>El nombre del creador o creadores del contenido.&lt;/li>
&lt;li>El nombre de la persona o entidad que publica el archivo ZIM.&lt;/li>
&lt;/ul>
&lt;p>Y estos metadatos se pueden añadir de manera opcional:&lt;/p>
&lt;ul>
&lt;li>Descripción extendida del contenido.&lt;/li>
&lt;li>Etiquetas, separadas por el signo punto y coma.&lt;/li>
&lt;li>URL de origen del contenido.&lt;/li>
&lt;li>Variante. Por ejemplo, Wikipedia tiene las variantes maxi y mini, entre otras. Si sólo queremos un archivo por sitio web, no es necesario indicar este parámetro.&lt;/li>
&lt;/ul>
&lt;p>Por supuesto, aquí opcional no hay nada. Vamos a crear un archivo con todos los metadatos. Primero, ejecutamos este comando para fijar una variable de entorno necesaria: &lt;code>export MAGIC=/usr/lib/file/magic.mgc&lt;/code>
Y ahora, llamamos a zimwriterfs: &lt;code>./zimwriterfs --name=&amp;quot;nvdaaddons&amp;quot; --welcome=index.es.html --illustration=nvda.png --language=spa --title=&amp;quot;Complementos para NVDA&amp;quot; --description=&amp;quot;Sitio web en español de complementos de la comunidad de NVDA&amp;quot; --creator=&amp;quot;Equipo de complementos de NVDA&amp;quot; --publisher=&amp;quot;José Manuel Delicado&amp;quot; --source=&amp;quot;https://addons.nvda-project.org&amp;quot; --tags=&amp;quot;NVDA;complementos;lector de pantalla;accesibilidad&amp;quot; --longDescription=&amp;quot;Sitio web de complementos de la comunidad internacional de NVDA, sólo contenidos en español e inglés&amp;quot; --flavour=NVDA ./addons.nvda-project.org nvda-addons.zim&lt;/code>
Tras unos segundos, obtendremos un archivo ZIM muy similar al que se proporcionó al principio de este tutorial.&lt;/p>
&lt;h2 id="conclusiones">Conclusiones&lt;/h2>
&lt;p>Tras leer las secciones anteriores, deberías saber leer y crear tus propios archivos ZIM. Nos hemos dejado por el camino algunos conceptos, como la creación de un proxy inverso, la ejecución de kiwix-serve como servicio, y el resto de herramientas disponibles en las kiwix-tools y las zim-tools. ¿Te animas a explorarlas? Si la respuesta es sí, ¡asómate por Mastodon y comparte lo que has descubierto!
¡Hasta la próxima!&lt;/p></content:encoded></item><item><title>De Docker al fediverso</title><link>https://jmdaweb.github.io/posts/docker-mastodon/</link><pubDate>Mon, 03 Jun 2024 15:45:34 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/docker-mastodon/</guid><description>En este tutorial aprenderemos conceptos básicos de Docker. Después levantaremos una instancia de Mastodon, una red social descentralizada, y tomaremos medidas para que sea lo más segura posible. Dicha instancia estará formada por contenedores que operan de forma sincronizada, y que ofrecerán sus servicios al público mediante el servidor web Apache.
Requisitos Un servidor con Debian 12 o Ubuntu. Se recomienda que esté protegido, sólo con los puertos ssh, http y https abiertos.</description><content:encoded>
&lt;p>En este tutorial aprenderemos conceptos básicos de Docker. Después levantaremos una instancia de Mastodon, una red social descentralizada, y tomaremos medidas para que sea lo más segura posible. Dicha instancia estará formada por contenedores que operan de forma sincronizada, y que ofrecerán sus servicios al público mediante el servidor web Apache.&lt;/p>
&lt;h2 id="requisitos">Requisitos&lt;/h2>
&lt;ul>
&lt;li>Un servidor con Debian 12 o Ubuntu. Se recomienda que esté protegido, sólo con los puertos ssh, http y https abiertos.&lt;/li>
&lt;li>Acceso por SSH y conocimientos del manejo de la consola.&lt;/li>
&lt;/ul>
&lt;h2 id="introducción-a-docker">Introducción a Docker&lt;/h2>
&lt;p>Docker es una tecnología que nos permite desplegar aplicaciones y simular ciertas condiciones para que funcionen correctamente. Estas aplicaciones se ejecutan dentro de &amp;ldquo;contenedores&amp;rdquo;. Un contenedor se queda a medio camino entre el equipo anfitrión y una máquina virtual:&lt;/p>
&lt;ul>
&lt;li>Engaña a la aplicación contenida.&lt;/li>
&lt;li>Simula redes que en el equipo anfitrión no están.&lt;/li>
&lt;li>Simula un sistema de archivos propio.&lt;/li>
&lt;li>Le da a la aplicación las versiones de las librerías que necesita, que a lo mejor no se corresponden con las del equipo anfitrión. Eso ofrece más garantías de que siempre funcionará igual, esté donde esté.&lt;/li>
&lt;/ul>
&lt;p>Sin embargo, un contenedor no se ejecuta sobre un núcleo separado. Una aplicación preparada para tal fin puede escalar y acceder al equipo anfitrión sin nuestro permiso.&lt;/p>
&lt;p>Los contenedores tienden a ser efímeros: cuando terminan de ejecutarse, lo normal es destruirlos. Se crean a partir de imágenes, que podemos construir por nuestra cuenta o descargar de algún registro. El registro por defecto, si no configuramos ninguno, es el &lt;a href="https://hub.docker.com">Docker Hub&lt;/a>, y allí es donde suelen subirse las imágenes con las que vamos a trabajar. De hecho, si nos hacemos una cuenta, podemos subir nuestras propias imágenes.&lt;/p>
&lt;h2 id="instalación-de-docker">Instalación de Docker&lt;/h2>
&lt;p>Una vez instalado, los comandos para interactuar con Docker son los mismos en cualquier plataforma, también en Windows. Ya que en todos los tutoriales de este sitio hemos trabajado con Debian, vamos a usar Debian aquí también:&lt;/p>
&lt;ol>
&lt;li>Instalamos paquetes que nos permitirán agregar repositorios https: &lt;code>apt update &amp;amp;&amp;amp; apt install apt-transport-https ca-certificates curl gnupg lsb-release&lt;/code>&lt;/li>
&lt;li>Agregamos la clave GPG del repositorio de Docker: &lt;code>mkdir -m 0755 -p /etc/apt/keyrings &amp;amp;&amp;amp; curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;/code>&lt;/li>
&lt;li>Agregamos el repositorio: &lt;code>echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/debian $(lsb_release -cs) stable&amp;quot; | tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;/code>&lt;/li>
&lt;li>Instalamos el motor de Docker: &lt;code>apt update &amp;amp;&amp;amp; apt install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;/code>&lt;/li>
&lt;/ol>
&lt;p>Se puede cambiar la palabra debian por ubuntu en la URL de los repositorios si queremos hacer la instalación en ese sistema.&lt;/p>
&lt;p>En la consola, hemos encadenado dos comandos para que se ejecuten seguidos. Esto se hace con el operador &amp;amp;&amp;amp;, que no habíamos visto hasta ahora.&lt;/p>
&lt;h2 id="nuestro-primer-contenedor-fedora">Nuestro primer contenedor: Fedora&lt;/h2>
&lt;p>Comprar un servidor VPS sólo para probar una nueva distribución de Linux cuesta dinero, y virtualizarla puede ser imposible cuando no hay accesibilidad. Antes de lanzarnos a cambiar de distribución, puede ser una buena idea hacer algunas pruebas y ver si entendemos sus comandos.&lt;/p>
&lt;p>En primer lugar, vamos a bajarnos la imagen más reciente de Fedora: &lt;code>docker pull fedora:latest&lt;/code>&lt;/p>
&lt;p>En Docker, es habitual que la etiqueta latest apunte a la versión estable más reciente de la imagen deseada. De hecho, la palabra latest se asume si no indicamos otra etiqueta.&lt;/p>
&lt;p>Una vez descargada, podemos verla con el siguiente comando: &lt;code>docker images&lt;/code>&lt;/p>
&lt;p>La imagen, además de su nombre, lleva un identificador asociado. Gracias a él, podremos eliminarla cuando ya no la queramos: &lt;code>docker rmi identificador&lt;/code>&lt;/p>
&lt;p>Pero es un poco pronto para eliminarla, teniendo en cuenta que no la hemos usado. Creemos un contenedor:&lt;/p>
&lt;p>&lt;code>docker run --rm -t -i fedora:latest /bin/bash&lt;/code>&lt;/p>
&lt;p>En este comando, hemos indicado que el contenedor será destruido al apagarse. Se acoplará una terminal para él, así como la entrada estándar de teclado, usará la imagen de Fedora con el tag latest, y dentro ejecutará el comando /bin/bash. El resultado es una consola dentro del contenedor. Podemos experimentar con ella, llamar a &lt;code>dnf update&lt;/code> para actualizar los paquetes, y salir con control+d o el comando exit. Al abandonarla, el contenedor será destruido.&lt;/p>
&lt;p>Si queremos hacer un contenedor que no se destruya, el comando varía ligeramente:&lt;/p>
&lt;p>&lt;code>docker run --name micontenedor -t -i fedora:latest /bin/bash&lt;/code>&lt;/p>
&lt;p>En este caso, el contenedor guardará y recordará los cambios que hagamos en su interior. Al salir se detendrá, pero no se destruirá.
Podremos volver a él con este comando:&lt;/p>
&lt;p>&lt;code>docker start -i -a micontenedor&lt;/code>&lt;/p>
&lt;p>Si queremos eliminarlo: &lt;code>docker rm micontenedor&lt;/code>&lt;/p>
&lt;p>Es muy importante eliminar todos los contenedores creados a partir de una imagen antes de eliminar la imagen. Se puede hacer al revés con el modificador &lt;code>--force&lt;/code>, pero puede tener efectos no deseados.&lt;/p>
&lt;h2 id="segundo-contenedor-un-servidor-de-nvda-remote">Segundo contenedor: un servidor de NVDA Remote&lt;/h2>
&lt;p>Tener la consola en pantalla es útil para experimentar, pero no es lo habitual. Lo ideal es que cada contenedor ofrezca sus servicios en segundo plano. Para ello, durante su creación, prescindiremos de los modificadores -t y -i.&lt;/p>
&lt;p>El contenedor que vamos a crear ahora ofrece un servicio de red. Por defecto, Docker no abre los puertos del contenedor al exterior, sino que es algo que debemos pedirle nosotros. Para ello, usaremos el argumento -p, seguido del puerto exterior, y finalmente del interior. Sabemos que la imagen de NVDA Remote Server abre el puerto 6837. Sin embargo, desde la red del trabajo sólo nos dan libertad para acceder a los puertos 80 y 443, así que configuraremos el 443 como puerto de entrada. Con el argumento -d, además, le diremos al contenedor que se ejecute en segundo plano y nos devuelva el control de la consola en cuanto se inicie:&lt;/p>
&lt;p>&lt;code>docker run -d -p 443:6837 --name micontenedor jmdaweb/nvda-remote-server:latest&lt;/code>&lt;/p>
&lt;p>Como se puede observar, esta imagen no estaba descargada, pero se descarga en cuanto la solicitamos.&lt;/p>
&lt;p>Ahora, con el comando &lt;code>docker ps&lt;/code>, podemos ver que el contenedor está activo. El comando &lt;code>docker logs micontenedor&lt;/code> mostrará por pantalla la salida de la aplicación. Y si con start iniciábamos, &lt;code>docker stop micontenedor&lt;/code> detendrá el contenedor indicado.&lt;/p>
&lt;p>Con el contenedor activado, podremos conectarnos a un servidor de remote totalmente operativo en ipDelServidor:443.&lt;/p>
&lt;h2 id="comunicación-entre-contenedores">Comunicación entre contenedores&lt;/h2>
&lt;p>Docker permite crear y gestionar redes. No profundizaremos demasiado en ello, ya que sólo necesitaremos unos conocimientos básicos.&lt;/p>
&lt;p>El comando &lt;code>docker network --help&lt;/code> nos dará más información. Cuando conectamos varios contenedores a una misma red, estos pueden interactuar entre sí sin que sus puertos estén abiertos al exterior. Por ejemplo, si tenemos una arquitectura en la que PHP se ejecuta con Wordpress en un contenedor, Apache en otro y MySQL en otro, nos interesará que todos se conecten entre sí, pero sólo Apache aceptará conexiones entrantes del exterior. Al crear un contenedor con docker create o docker run, se puede especificar su red con el argumento &lt;code>--network&lt;/code>, seguido del nombre de la misma. Si escribimos &lt;code>--network host&lt;/code>, el contenedor se comportará como cualquier aplicación del equipo anfitrión, ofreciendo sus puertos sin ninguna clase de traducción de red. Por tanto, el modificador &lt;code>-p&lt;/code> dejaría de ser necesario.&lt;/p>
&lt;h2 id="compartir-archivos-con-volúmenes">Compartir archivos con volúmenes&lt;/h2>
&lt;p>Y si lo normal es destruir un contenedor al acabar de usarlo, ¿qué sucede con los datos que se generan en su interior? ¿De qué vale la base de datos que me he montado en MySQL? Cuando queremos preservar información, se emplean volúmenes. Dichos volúmenes pueden ser carpetas del sistema montadas en el contenedor, o almacenes gestionados por el propio Docker. Quizá la primera opción nos interese más, ya que así tendremos en todo momento los datos a mano. Hagamos un experimento sencillo con la imagen de Fedora que ya tenemos:&lt;/p>
&lt;ol>
&lt;li>Creamos una carpeta dentro de /root que actuará como volumen: &lt;code>mkdir /root/contenedores-pruebas&lt;/code>&lt;/li>
&lt;li>Arrancamos un nuevo contenedor con Fedora: &lt;code>docker run --rm -v ./contenedores-pruebas:/root/contenedores-pruebas -t -i fedora:latest /bin/bash&lt;/code>&lt;/li>
&lt;li>Desde la consola de Fedora, escribimos información en un fichero de texto dentro del volumen: &lt;code>echo hola &amp;gt; /root/contenedores-pruebas/prueba.txt&lt;/code>&lt;/li>
&lt;li>Salimos de la consola, lo que provoca la destrucción del contenedor. Sin embargo, en la carpeta asociada al volumen, permanece el archivo txt con lo que escribimos.&lt;/li>
&lt;/ol>
&lt;p>¡Importante! Para que Docker monte volúmenes a partir de carpetas existentes, se debe indicar la ruta absoluta. De lo contrario, pensará que se trata de un volumen administrado, y fallará si el volumen no existe.&lt;/p>
&lt;h2 id="ejecución-de-comandos-dentro-de-un-contenedor">Ejecución de comandos dentro de un contenedor&lt;/h2>
&lt;p>Normalmente, cada contenedor ejecuta un único proceso, pero viene equipado de tal forma que podemos ejecutar más. Si queremos modificar el fichero de configuración del servidor de NVDA Remote, debemos usar Nano dentro del contenedor. De hecho, se ha incluido a propósito en la imagen original para poder hacerlo. Mientras el contenedor está activado, podemos llamar al comando docker exec, indicando el nombre y el comando que se ejecutará. Por ejemplo:&lt;/p>
&lt;p>&lt;code>docker exec -t -i my_nvda_remote nano /etc/NVDARemoteServer.conf&lt;/code>&lt;/p>
&lt;p>Esto se aplicará más adelante en Mastodon para hacer copias de seguridad de la base de datos o gestionar aspectos de la instancia, por ejemplo.&lt;/p>
&lt;h2 id="los-ficheros-docker-composeyml">Los ficheros docker-compose.yml&lt;/h2>
&lt;p>Cuando queremos desplegar un servicio que necesita usar varios contenedores, redes y volúmenes, poner en marcha cada elemento puede convertirse en una tarea repetitiva y no exenta de fallos. Docker-compose viene a solucionar el problema. Podemos crear un archivo docker-compose.yml con una serie de instrucciones en su interior que siguen un formato concreto en lenguaje Yaml, y esta herramienta se encargará de levantar o destruir el servicio a petición, creando y eliminando contenedores en el camino.
Tiempo atrás, docker-compose se distribuía como un ejecutable independiente. Había que prestar atención para actualizarlo cada vez que salía una nueva versión. Ahora, viene en forma de plugin de Docker, y ya lo hemos instalado al principio de este capítulo. El gestor de paquetes de nuestra distribución ayudará a mantenerlo al día junto con todo lo demás.&lt;/p>
&lt;p>Para utilizar un archivo docker-compose.yml, navegamos al directorio donde se encuentra. A continuación, podemos ejecutar algunos de estos comandos:&lt;/p>
&lt;ul>
&lt;li>&lt;code>docker compose up -d&lt;/code>: pone en marcha todos los servicios del archivo. Descarga imágenes si es necesario, y luego crea redes, volúmenes y contenedores.&lt;/li>
&lt;li>&lt;code>docker compose down&lt;/code>: apaga el servicio. Elimina redes, contenedores y volúmenes, pero no imágenes.&lt;/li>
&lt;li>&lt;code>docker compose run --rm servicio comando&lt;/code>: crea sólo un contenedor con el servicio indicado, cuyo nombre está en el archivo docker-compose.yml, y ejecuta en su interior el comando solicitado.&lt;/li>
&lt;li>&lt;code>docker compose pull&lt;/code>: actualiza todas las imágenes relacionadas con el servicio a sus versiones más recientes.&lt;/li>
&lt;/ul>
&lt;h3 id="archivo-docker-composeyml-de-ejemplo-para-libre-translate">Archivo docker-compose.yml de ejemplo para Libre Translate&lt;/h3>
&lt;p>Libre Translate es un traductor gratuito, de código abierto y autoalojado. Con poco más de 20 GB libres, cualquier persona puede montarlo en su servidor con todos los modelos de idioma disponibles. A continuación hay un archivo docker-compose.yml que lo pone en marcha.&lt;/p>
&lt;pre tabindex="0">&lt;code>version: &amp;#34;3&amp;#34;
services:
libretranslate:
container_name: libretranslate
image: libretranslate/libretranslate:latest
restart: unless-stopped
command: --req-limit 30 --char-limit 5000 --api-keys --disable-files-translation --req-limit-storage redis://127.0.0.1:6379 --update-models
environment:
- LT_API_KEYS_DB_PATH=/app/db/api_keys.db
volumes:
- /root/libretranslate/api_keys:/app/db
- /mnt/resource/libretranslate:/home/libretranslate
network_mode: host
&lt;/code>&lt;/pre>&lt;h2 id="instalación-y-configuración-de-la-instancia-de-mastodon">Instalación y configuración de la instancia de Mastodon&lt;/h2>
&lt;h3 id="obtención-del-código">Obtención del código&lt;/h3>
&lt;p>En primer lugar, instalaremos Git en Debian: &lt;code>apt update &amp;amp;&amp;amp; apt install git&lt;/code>&lt;/p>
&lt;p>Vamos a asumir que tenemos la sesión iniciada como root. Clonaremos el repositorio de Mastodon en nuestra carpeta de perfil de usuario, que se encuentra en /root:&lt;/p>
&lt;p>&lt;code>git clone https://github.com/mastodon/mastodon.git&lt;/code>&lt;/p>
&lt;p>Ahora, accedemos a su interior: &lt;code>cd mastodon&lt;/code>&lt;/p>
&lt;p>Y usamos Git para situarnos en el tag de la versión más reciente. En el momento de redactar este tutorial, la versión más reciente es la 4.2.9: &lt;code>git checkout v4.2.9&lt;/code>&lt;/p>
&lt;h3 id="preparación-de-volúmenes">Preparación de volúmenes&lt;/h3>
&lt;p>Mastodon no es una aplicación simple. Está formada por un conjunto de aplicaciones que se coordinan entre sí. En Docker, esto se traduce en varios contenedores, uno por aplicación. Vamos a verlos en detalle:&lt;/p>
&lt;ul>
&lt;li>Web: ofrece la interfaz web y casi toda la API de Mastodon.&lt;/li>
&lt;li>Streaming: es el encargado de ofrecer notificaciones y publicaciones en tiempo real, así como la API de streaming.&lt;/li>
&lt;li>Sidekiq: ejecuta tareas en segundo plano. Es el corazón de esta red social, el nexo de unión entre todos los demás componentes. Si Sideqkiq falla o va lento, los usuarios lo notarán.&lt;/li>
&lt;li>PostgreSQL: gestor de la base de datos principal. Almacena publicaciones, cuentas de usuario y algunos aspectos de la configuración de la instancia.&lt;/li>
&lt;li>Redis: base de datos de rápido acceso cuyo objetivo es alojar una caché para que las líneas temporales carguen más deprisa, entre otras cosas.&lt;/li>
&lt;li>Elasticsearch: componente opcional que añade capacidades de búsqueda a la instancia. Por supuesto, en este tutorial no es opcional. Ya que está, vamos a usarlo.&lt;/li>
&lt;li>Tor y Privoxy: permiten que la instancia federe con otras instancias de la red Tor, y que los usuarios puedan visitarla de forma anónima. No lo documentaremos aquí. No es seguro ofrecer este tipo de acceso en una instancia de Mastodon.&lt;/li>
&lt;/ul>
&lt;p>Muchos de estos contenedores necesitan volúmenes. Como queremos que sus datos persistan entre reinicios y tenerlos a mano, vamos a crearlos como carpetas en el sistema anfitrión dentro del repositorio de Mastodon. Se podrían crear sin problema en cualquier otro sitio, siempre que luego ajustemos las rutas.&lt;/p>
&lt;pre tabindex="0">&lt;code>mkdir elasticsearch
mkdir redis
mkdir postgres16
mkdir system
&lt;/code>&lt;/pre>&lt;p>Nota: la carpeta system contendrá elementos multimedia descargados de otras instancias y subidos por nuestros usuarios, por lo que se recomienda que esté en una partición con suficiente espacio libre.&lt;/p>
&lt;p>Las carpetas están creadas, pero los contenedores intentarán escribir en ellas utilizando cuentas de usuario con menos privilegios que root por motivos de seguridad. Conociendo los identificadores de usuario y grupo, podemos asignarlos a cada carpeta:&lt;/p>
&lt;pre tabindex="0">&lt;code>chown -R 991:991 system
chown -R 70:70 postgres16
chown -R 1000:0 elasticsearch
chown -R 999:1000 redis
&lt;/code>&lt;/pre>&lt;h3 id="preparación-del-núcleo-para-elasticsearch">Preparación del núcleo para ElasticSearch&lt;/h3>
&lt;p>Ya tenemos los volúmenes listos. Antes de continuar poniendo en marcha la instancia, debemos modificar en el núcleo del sistema un parámetro que ElasticSearch necesita, y que por defecto tiene un valor muy bajo.&lt;/p>
&lt;p>Para ello, podemos ejecutar el siguiente comando: &lt;code>echo vm.max_map_count=262144 &amp;gt; /etc/sysctl.d/elastic.conf&lt;/code>&lt;/p>
&lt;p>O crear el archivo /etc/sysctl.d/elastic.conf y escribir en su interior vm.max_map_count=262144, que al final se traduce en lo mismo. Después, mediante el comando reboot, reiniciamos el servidor.&lt;/p>
&lt;h3 id="el-archivo-docker-composeyml-de-mastodon">El archivo docker-compose.yml de Mastodon&lt;/h3>
&lt;p>En el repositorio de Mastodon podemos encontrar un archivo docker-compose.yml en el que se definen varios contenedores y redes. Está preparado para compilar las imágenes desde el principio, algo que no nos interesa pudiendo descargarlas. También tiene muchas líneas comentadas, ya que el buscador ElasticSearch viene deshabilitado. Vamos a modificarlo para adaptarlo a nuestras necesidades. Este sería un posible fichero resultante:&lt;/p>
&lt;pre tabindex="0">&lt;code>version: &amp;#39;3&amp;#39;
services:
db:
restart: always
image: postgres:16-alpine
shm_size: 256mb
networks:
- internal_network
healthcheck:
test: [&amp;#39;CMD&amp;#39;, &amp;#39;pg_isready&amp;#39;, &amp;#39;-U&amp;#39;, &amp;#39;postgres&amp;#39;]
volumes:
- ./postgres14:/var/lib/postgresql/data
environment:
- &amp;#39;POSTGRES_HOST_AUTH_METHOD=trust&amp;#39;
redis:
restart: always
image: redis:7-alpine
networks:
- internal_network
healthcheck:
test: [&amp;#39;CMD&amp;#39;, &amp;#39;redis-cli&amp;#39;, &amp;#39;ping&amp;#39;]
volumes:
- ./redis:/data
es:
restart: always
image: docker.elastic.co/elasticsearch/elasticsearch:7.17.4
environment:
- &amp;#34;ES_JAVA_OPTS=-Xms512m -Xmx512m -Des.enforce.bootstrap.checks=true&amp;#34;
- &amp;#34;xpack.license.self_generated.type=basic&amp;#34;
- &amp;#34;xpack.security.enabled=false&amp;#34;
- &amp;#34;xpack.watcher.enabled=false&amp;#34;
- &amp;#34;xpack.graph.enabled=false&amp;#34;
- &amp;#34;xpack.ml.enabled=false&amp;#34;
- &amp;#34;bootstrap.memory_lock=true&amp;#34;
- &amp;#34;cluster.name=es-mastodon&amp;#34;
- &amp;#34;discovery.type=single-node&amp;#34;
- &amp;#34;thread_pool.write.queue_size=1000&amp;#34;
networks:
- external_network
- internal_network
healthcheck:
test: [&amp;#34;CMD-SHELL&amp;#34;, &amp;#34;curl --silent --fail localhost:9200/_cluster/health || exit 1&amp;#34;]
volumes:
- ./elasticsearch:/usr/share/elasticsearch/data
ulimits:
memlock:
soft: -1
hard: -1
nofile:
soft: 65536
hard: 65536
ports:
- &amp;#39;127.0.0.1:9200:9200&amp;#39;
web:
image: ghcr.io/mastodon/mastodon:v4.2.9
restart: always
env_file: .env.production
command: bash -c &amp;#34;rm -f /mastodon/tmp/pids/server.pid; bundle exec rails s -p 3000&amp;#34;
networks:
- external_network
- internal_network
healthcheck:
# prettier-ignore
test: [&amp;#39;CMD-SHELL&amp;#39;, &amp;#39;wget -q --spider --proxy=off localhost:3000/health || exit 1&amp;#39;]
ports:
- &amp;#39;127.0.0.1:3000:3000&amp;#39;
depends_on:
- db
- redis
- es
volumes:
- ./system:/mastodon/public/system
streaming:
image: ghcr.io/mastodon/mastodon:v4.2.9
restart: always
env_file: .env.production
command: node ./streaming
networks:
- external_network
- internal_network
healthcheck:
# prettier-ignore
test: [&amp;#39;CMD-SHELL&amp;#39;, &amp;#39;wget -q --spider --proxy=off localhost:4000/api/v1/streaming/health || exit 1&amp;#39;]
ports:
- &amp;#39;127.0.0.1:4000:4000&amp;#39;
depends_on:
- db
- redis
sidekiq:
image: ghcr.io/mastodon/mastodon:v4.2.9
restart: always
env_file: .env.production
command: bundle exec sidekiq
depends_on:
- db
- redis
networks:
- external_network
- internal_network
volumes:
- ./system:/mastodon/public/system
healthcheck:
test: [&amp;#39;CMD-SHELL&amp;#39;, &amp;#34;ps aux | grep &amp;#39;[s]idekiq\ 6&amp;#39; || false&amp;#34;]
networks:
external_network:
internal_network:
internal: true
&lt;/code>&lt;/pre>&lt;p>Como vemos, se hace referencia a un archivo .env.production que no existe. Ya mencionamos que parte de la configuración de la instancia se almacena en la base de datos. Otra parte se almacena en este archivo.&lt;/p>
&lt;h3 id="el-archivo-envproduction">El archivo .env.production&lt;/h3>
&lt;p>En la misma carpeta donde está el archivo docker-compose.yml (en este caso, la raíz del repositorio) debe haber un archivo llamado .env.production con las siguientes variables, como mínimo. La documentación de Mastodon proporciona otras variables que podemos añadir. Este es sólo un archivo de ejemplo:&lt;/p>
&lt;pre tabindex="0">&lt;code># El contenido estático se deja en manos de Ruby y Docker
RAILS_SERVE_STATIC_FILES=true
# El nivel de registro se configura en advertencias
RAILS_LOG_LEVEL=warn
# Ajustes de Redis
REDIS_HOST=redis
REDIS_PORT=6379
# Ajustes de la base de datos
DB_HOST=db
DB_USER=postgres
DB_NAME=postgres
DB_PASS=
DB_PORT=5432
# Buscador
ES_ENABLED=true
ES_HOST=es
ES_PORT=9200
# Comienza a modificar a partir de aquí
# Dominio de la instancia.
LOCAL_DOMAIN=miinstancia.com
# Valores secretos
SECRET_KEY_BASE=secreto1
OTP_SECRET=secreto2
VAPID_PRIVATE_KEY=secreto3
VAPID_PUBLIC_KEY=secreto4
# Ajustes para enviar correos
SMTP_SERVER=smtp.gmail.com
SMTP_PORT=587
SMTP_LOGIN=miinstancia@gmail.com
SMTP_PASSWORD=clave_de_gmail
SMTP_FROM_ADDRESS=miinstancia@gmail.com
SMTP_OPENSSL_VERIFY_MODE=peer
SMTP_AUTH_METHOD=plain
# Cambiar a true si la instancia sólo contendrá un usuario (instancia unipersonal)
SINGLE_USER_MODE=false
# Ajustes del traductor con DeepL
# DEEPL_API_KEY=clave-api-de-DeepL
# DEEPL_PLAN=free
# Ajustes del traductor con Libre Translate
#LIBRE_TRANSLATE_ENDPOINT=http://URL-del-traductor
#LIBRE_TRANSLATE_API_KEY=clave-de-api-opcional
&lt;/code>&lt;/pre>&lt;p>Como se puede observar, hay varios ajustes que debemos configurar:&lt;/p>
&lt;ul>
&lt;li>Datos del servidor de correo: necesitamos una cuenta en un proveedor de correo. Gmail suele ser el más utilizado, especialmente con Google Workspace (de pago), por lo que decidimos dejar los ajustes del servidor. Esto no significa que no puedan usarse otros servidores, incluido un postfix local.&lt;/li>
&lt;li>Nombre de dominio o subdominio: una vez que lo elijamos y pongamos en marcha la instancia, ya no podrá cambiarse, así que es una decisión que debe tomarse con calma.&lt;/li>
&lt;li>Datos del traductor: el traductor es un componente opcional. Se pueden usar Libre Translate o DeepL. Descomenta las líneas del que prefieras, o no descomentes nada si no quieres traductor en tu instancia.&lt;/li>
&lt;li>Valores secretos: los generaremos más adelante.&lt;/li>
&lt;li>¿La instancia es unipersonal? Si la respuesta es sí, esta variable debe estar a true.&lt;/li>
&lt;/ul>
&lt;h3 id="generación-de-los-4-valores-secretos">Generación de los 4 valores secretos&lt;/h3>
&lt;p>Es hora de iniciar uno de los contenedores y responder una serie de preguntas. El siguiente comando ejecutará un asistente interactivo y realizará los primeros preparativos. Al finalizar, imprimirá por pantalla el resultado. Copia los 4 valores secretos, y sustitúyelos en el archivo .env.production del apartado anterior: &lt;code>docker compose run --rm web bundle exec rake mastodon:setup&lt;/code>&lt;/p>
&lt;h3 id="puesta-en-marcha-y-creación-de-la-cuenta-de-administrador">Puesta en marcha y creación de la cuenta de administrador&lt;/h3>
&lt;p>La instancia está lista para arrancar. Y como ya vimos en una sección anterior, basta ejecutar un único comando para que todo se ponga en marcha: &lt;code>docker compose up -d&lt;/code>&lt;/p>
&lt;p>Cuando recuperamos el control de la consola, podemos ver el estado de los contenedores con &lt;code>docker ps&lt;/code>. Tras un par de minutos, todos ellos deberían aparecer como &amp;lsquo;healthy&amp;rsquo;, que significa sano. Si alguno de ellos se reinicia continuamente o no se encuentra en buen estado, comprueba que no te has equivocado al seguir los pasos anteriores, y pregunta, no vaya a ser que yo me haya equivocado con el tutorial.&lt;/p>
&lt;p>Los contenedores perdurarán y se activarán por sí solos cada vez que se reinicie el sistema. Para detener la instancia, ejecutaremos &lt;code>docker compose down&lt;/code>&lt;/p>
&lt;p>Ahora, desplegamos los índices del buscador, un paso indispensable para que funcione: &lt;code>docker exec mastodon-web-1 tootctl search deploy&lt;/code>&lt;/p>
&lt;p>Para finalizar la configuración, crearemos una cuenta de administrador. Tras ejecutar el siguiente comando, aparecerá en pantalla la contraseña de la cuenta, compuesta por 32 caracteres. Se puede cambiar más adelante desde la interfaz de administración:&lt;/p>
&lt;p>&lt;code>docker exec mastodon-web-1 tootctl accounts create usuario --email usuario@miinstancia.com --confirmed --role owner&lt;/code>&lt;/p>
&lt;p>¡Todo listo! Mastodon ya está en funcionamiento. Pero aún no se puede entrar, falta mucho por hacer.&lt;/p>
&lt;h2 id="obtención-de-un-certificado-para-nuestro-dominio">Obtención de un certificado para nuestro dominio&lt;/h2>
&lt;p>No puede haber instancia de Mastodon sin un dominio, o al menos un subdominio dentro del dominio. Vamos a asumir que ya tenemos un dominio que apunta a la dirección ip de nuestro servidor, y que los puertos 80 y 443 se encuentran abiertos. Esto último es importante, ya que son necesarios para obtener el certificado.&lt;/p>
&lt;p>Con el certificado, garantizaremos que la conexión a la instancia se hace por https, y por tanto que el tráfico va cifrado entre cliente y servidor. Para comenzar, instalaremos Certbot:&lt;/p>
&lt;pre tabindex="0">&lt;code>apt update &amp;amp;&amp;amp; apt install certbot
&lt;/code>&lt;/pre>&lt;p>Antes de realizar la solicitud, tal vez sea conveniente reforzar la seguridad. Sabéis que a mí me gusta mucho dejar atrás RSA, aunque rompa compatibilidad con navegadores antiguos, y cambiarlo por algo más reciente. Para hacerlo, editaremos el archivo /etc/letsencrypt/cli.ini:&lt;/p>
&lt;p>&lt;code>nano /etc/letsencrypt/cli.ini&lt;/code>&lt;/p>
&lt;p>No vamos a cambiar nada de lo que se encuentra en él, pero sí agregaremos lo siguiente:&lt;/p>
&lt;pre tabindex="0">&lt;code>key-type = ecdsa
elliptic-curve = secp384r1
&lt;/code>&lt;/pre>&lt;p>Ahora, pulsamos control+x para salir, la s o la y (según el idioma) para confirmar que queremos guardar, e intro para guardar el fichero sin cambiar su nombre.&lt;/p>
&lt;p>Finalmente, solicitamos un certificado. En este ejemplo, se usa el dominio miinstancia.com: &lt;code>certbot certonly --standalone -d miinstancia.com&lt;/code>&lt;/p>
&lt;p>Si es la primera vez que usamos Let&amp;rsquo;s Encrypt, tendremos que aceptar los términos del servicio, y proporcionar un correo electrónico. Los certificados caducan cada 3 meses. Cuando falten pocos días para alcanzar la fecha de caducidad, recibiremos un correo que informará de ello. Para renovar todos los certificados solicitados, basta con apagar el servidor web, ejecutar &lt;code>certbot renew&lt;/code>, y ponerlo en marcha de nuevo.&lt;/p>
&lt;p>Ahora que ya tenemos un certificado, podemos continuar con el servidor web, Apache.&lt;/p>
&lt;h2 id="instalación-y-configuración-de-apache">Instalación y configuración de Apache&lt;/h2>
&lt;p>Apache es un servidor web modular cuyo comportamiento se programa en uno o varios archivos de configuración. En cada distribución de Linux se presenta de una manera distinta. En Centos, todos los módulos vienen habilitados. En Debian y Ubuntu hay que habilitar a mano algunos para casos concretos, e incluso los hosts virtuales pueden encenderse o apagarse.&lt;/p>
&lt;p>Para instalar Apache, ejecutaremos el siguiente comando:&lt;/p>
&lt;p>&lt;code>apt update &amp;amp;&amp;amp; apt install apache2&lt;/code>&lt;/p>
&lt;p>A continuación, habilitamos los módulos necesarios para usar SSL, redirigir a https y conectarse a los contenedores de Mastodon que funcionarán en el equipo: &lt;code>a2enmod ssl proxy_wstunnel rewrite headers&lt;/code>&lt;/p>
&lt;p>A pesar de que Apache nos lo solicite, aún no es momento de reiniciarlo. Debemos añadir y habilitar el fichero de configuración de la instancia. Por ejemplo, podemos situarlo en /etc/apache2/sites-available/miinstancia.conf. En su interior, se debe forzar el uso de https, y redirigir todas las solicitudes seguras hacia la instancia. Este podría ser un fichero de ejemplo:&lt;/p>
&lt;pre tabindex="0">&lt;code>&amp;lt;VirtualHost *:80&amp;gt;
ServerName miinstancia.com:80
&amp;lt;IfModule mod_rewrite.c&amp;gt;
RewriteEngine on
RewriteRule ^ - [E=protossl]
RewriteCond %{HTTPS} on
RewriteRule ^ - [E=protossl:s]
RewriteCond %{HTTP_HOST} ^www\.(.+)$ [NC]
RewriteRule ^ http%{ENV:protossl}://%1%{REQUEST_URI} [L,R=301]
&amp;lt;/IfModule&amp;gt;
&amp;lt;/VirtualHost&amp;gt;
&amp;lt;VirtualHost *:443&amp;gt;
ServerAdmin correo@miinstancia.com
ServerName miinstancia.com:443
SSLEngine on
DocumentRoot /root/mastodon/public
&amp;lt;LocationMatch &amp;#34;^/(assets|avatars|emoji|headers|packs|sounds|system)&amp;#34;&amp;gt;
Header always set Cache-Control &amp;#34;public, max-age=31536000, immutable&amp;#34;
Require all granted
&amp;lt;/LocationMatch&amp;gt;
&amp;lt;Location &amp;#34;/&amp;#34;&amp;gt;
Require all granted
&amp;lt;/Location&amp;gt;
ProxyPreserveHost On
RequestHeader set X-Forwarded-Proto &amp;#34;https&amp;#34;
ProxyAddHeaders On
ProxyPass /api/v1/streaming ws://localhost:4000/api/v1/streaming
ProxyPass / http://localhost:3000/
ProxyPassReverse / http://localhost:3000/
ErrorDocument 500 /500.html
ErrorDocument 501 /500.html
ErrorDocument 502 /500.html
ErrorDocument 503 /500.html
ErrorDocument 504 /500.html
CustomLog logs/ssl_request_log \
&amp;#34;%t %h %{SSL_PROTOCOL}x %{SSL_CIPHER}x \&amp;#34;%r\&amp;#34; %b&amp;#34;
BrowserMatch &amp;#34;MSIE [2-5]&amp;#34; \
nokeepalive ssl-unclean-shutdown \
downgrade-1.0 force-response-1.0
SSLProxyEngine on
&amp;lt;IfModule mod_headers.c&amp;gt;
Header always set Strict-Transport-Security &amp;#34;max-age=63072000; includeSubDomains; preload&amp;#34;
&amp;lt;/IfModule&amp;gt;
SSLHonorCipherOrder off
SSLCipherSuite ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384
SSLProxyCipherSuite ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384
SSLCertificateFile /etc/letsencrypt/live/miinstancia.com/fullchain.pem
SSLCertificateKeyFile /etc/letsencrypt/live/miinstancia.com/privkey.pem
SSLProtocol all -SSLv3 -TLSv1 -TLSv1.1
SSLProxyProtocol all -SSLv3 -TLSv1 -TLSv1.1
SSLSessionTickets on
SSLUseStapling on
SSLStrictSNIVHostCheck on
&amp;lt;/VirtualHost&amp;gt;
&lt;/code>&lt;/pre>&lt;p>Para completar la configuración de Apache, habilitamos el nuevo fichero y reiniciamos:&lt;/p>
&lt;p>&lt;code>a2ensite miinstancia&lt;/code>
&lt;code>systemctl restart apache2&lt;/code>&lt;/p>
&lt;p>¡Servidor listo! Si intentamos entrar desde el exterior, observaremos que la conexión es segura, y podremos acceder a la instancia. La cuenta de administrador creada al principio permitirá personalizar un montón de aspectos desde la web. Pero eso es algo que dejamos para otro día. ¡Feliz federación!&lt;/p>
&lt;h2 id="algo-de-protección-extra-inclusión-del-dominio-en-la-lista-de-precarga">Algo de protección extra: inclusión del dominio en la lista de precarga&lt;/h2>
&lt;p>Al conectar a una web que fuerza conexiones seguras, como la que acabamos de construir, la mayoría de los usuarios escribirán su nombre en la barra de direcciones, sin anteponer el prefijo https. El navegador primero accederá por http estándar, y acabará siendo redirigido. Si bien esto no supone un fallo muy serio de seguridad, le puede dar una pista a un potencial espía de la URL exacta a la que queremos ir. Para evitarlo, los navegadores incluyen listas de precarga con dominios conocidos. Cuando un dominio está en la lista de precarga, el navegador inicia directamente una conexión segura con él.&lt;/p>
&lt;p>Si quieres que tu dominio esté en esa lista, sigue estos pasos:&lt;/p>
&lt;ol>
&lt;li>Accede a la web &lt;a href="https://hstspreload.org">https://hstspreload.org&lt;/a>&lt;/li>
&lt;li>En el primer cuadro de edición, que automáticamente recibe el foco, escribe el nombre de tu dominio. No se admiten subdominios.&lt;/li>
&lt;li>Si se superan todos los requisitos, marca la casilla de aceptación y envía el formulario.&lt;/li>
&lt;li>Sigue los pasos 1 y 2 para comprobar el estado de precarga del dominio cada pocos días. Tardará varias semanas en estar listo, pero no dejes que esto te impida usar tu instancia con normalidad y anunciarla. Como se menciona en el título de la sección, es un extra que no interfiere.&lt;/li>
&lt;/ol>
&lt;p>Esto es todo por ahora. ¡Gracias por leer! Espero ver nuevas instancias pronto!&lt;/p></content:encoded></item><item><title>Syncthing, mi programa favorito para compartir archivos en grupo</title><link>https://jmdaweb.github.io/posts/syncthing/</link><pubDate>Mon, 03 Jun 2024 12:13:15 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/syncthing/</guid><description>Imagina que quieres compartir una carpeta enorme con otra persona. Dejas la carpeta en tu nube favorita, y esperas pacientemente a que se sincronice con el servidor, un proceso que va a tardar horas. La otra persona comenzará a descargarla en cuanto se haya terminado de subir. Seguramente tardará menos horas que tú, porque su velocidad de descarga es algo mayor, pero le llevará también mucho tiempo. Para colmo, te has quedado sin espacio en tu cuenta y uno de los archivos no cabe.</description><content:encoded>
&lt;p>Imagina que quieres compartir una carpeta enorme con otra persona. Dejas la carpeta en tu nube favorita, y esperas pacientemente a que se sincronice con el servidor, un proceso que va a tardar horas. La otra persona comenzará a descargarla en cuanto se haya terminado de subir. Seguramente tardará menos horas que tú, porque su velocidad de descarga es algo mayor, pero le llevará también mucho tiempo. Para colmo, te has quedado sin espacio en tu cuenta y uno de los archivos no cabe. ¿Y si la transferencia se hiciera por P2P, directamente al ordenador de la otra persona, y el único límite estuviera en el espacio del disco duro?&lt;/p>
&lt;p>Empecé a usar Syncthing allá por el 2016, cuando se puso de moda la sincronización P2P con BitTorrent Sync. A mí no me gustaba porque era algo muy centralizado, había que pagar por funciones extra y ocurrían cosas que no recuerdo con la privacidad. Así que me fui por la alternativa más libre, como siempre. Y desde entonces no la he soltado, ¡será por algo!&lt;/p>
&lt;p>&lt;a href="https://syncthing.net">Syncthing&lt;/a> permite sincronizar carpetas entre dispositivos de una manera casi descentralizada. Las transferencias son de un ordenador a otro, cifrando los datos y aplicando SSL a la conexión con certificados y claves privadas en ambos extremos. Pero dejemos la parte técnica para más adelante, y empecemos por lo fácil.&lt;/p>
&lt;h2 id="instalación">Instalación&lt;/h2>
&lt;p>Por defecto, el ejecutable de Syncthing para Windows funciona desde consola, almacena todos sus datos en appdata\local y deja una ventana abierta permanentemente, y eso queda feo. Además, no arranca solo al iniciar sesión. Hay que complementarlo con algo, y ese algo se llama Sync Trayzor.&lt;/p>
&lt;p>Sync Trayzor se encarga de arrancar Syncthing, vigilar su actividad y enviar notificaciones cuando tienen lugar una serie de eventos, como cambios en las carpetas locales o dispositivos que se conectan y se desconectan. Se minimiza a la bandeja del sistema, y no deja ventanas molestas en medio. Una vez instalado y configurado, nos podemos olvidar de él.&lt;/p>
&lt;p>La versión más reciente, compatible con sistemas ARM y de 64 bits, está aquí. Incluye instaladores y portables, y requiere .net Framework para funcionar: &lt;a href="https://github.com/germancoding/SyncTrayzor/releases/latest">https://github.com/germancoding/SyncTrayzor/releases/latest&lt;/a>&lt;/p>
&lt;p>Al instalarlo y ejecutarlo, abrirá una ventana con una barra de menú. Desde Archivo &amp;gt; Preferencias se puede configurar todo lo necesario. Las únicas cosas que yo suelo cambiar están en la primera pestaña. Me interesa que Sync Trayzor arranque con Windows, que se minimice y se cierre a la bandeja del sistema, que arranque minimizado y que no envíe notificaciones cuando se conecta o desconecta alguien (de verdad, pueden ser muy molestas).&lt;/p>
&lt;p>En Mac no existe Sync Trayzor, hay que instalar Syncthing como una aplicación normal y corriente: &lt;a href="https://github.com/syncthing/syncthing-macos/releases/latest">https://github.com/syncthing/syncthing-macos/releases/latest&lt;/a>&lt;/p>
&lt;p>En Linux, para no variar, depende de la distribución. El equipo de Syncthing tiene un repositorio propio para Debian y derivados, y en Centos, Fedora y compañía Syncthing está como paquete en el repositorio EPEL. Una vez instalado, se puede activar del siguiente modo:
&lt;code>systemctl enable syncthing@usuario&lt;/code>
&lt;code>systemctl start syncthing@usuario&lt;/code>&lt;/p>
&lt;p>Aunque es jugar con fuego y no lo recomiendo, no tiene por qué pasar nada si ese usuario es root, sólo manejamos nosotros el sistema y está bien asegurado.&lt;/p>
&lt;p>En Android, Syncthing se puede &lt;a href="https://play.google.com/store/apps/details?id=com.nutomic.syncthingandroid">descargar desde la Play Store&lt;/a>.&lt;/p>
&lt;p>Ahora que ya hemos instalado Syncthing y está en funcionamiento, podemos empezar a jugar con él. No hay que preocuparse por las actualizaciones, llegarán de forma totalmente transparente y sin que nos enteremos (Windows), o se instalarán de la forma habitual, como cualquier otro paquete o aplicación (Mac, Linux y Android).&lt;/p>
&lt;h2 id="primeros-pasos">Primeros pasos&lt;/h2>
&lt;p>Syncthing se maneja desde la web. Concretamente, desde &lt;a href="http://localhost:8384">esta dirección&lt;/a>. Su interfaz es plenamente accesible y muy intuitiva. Necesita alguna mejora, como todo, pero son detalles insignificantes. Se puede dividir la ventana en las siguientes regiones:&lt;/p>
&lt;ul>
&lt;li>Menú principal.&lt;/li>
&lt;li>Notificaciones (si las hay).&lt;/li>
&lt;li>Carpetas.&lt;/li>
&lt;li>Este dispositivo.&lt;/li>
&lt;li>Otros dispositivos.&lt;/li>
&lt;li>Enlaces a webs externas.&lt;/li>
&lt;li>Diálogos varios (siempre se irán abajo del todo). Sólo aparecerán cuando los abramos nosotros.&lt;/li>
&lt;/ul>
&lt;h3 id="cómo-obtener-nuestro-id-de-dispositivo">Cómo obtener nuestro ID de dispositivo&lt;/h3>
&lt;p>Por defecto, nuestro dispositivo tiene un identificador único. No va asociado a la máquina, sino a los datos empleados en la generación de nuestro certificado y clave. Por lo tanto, una copia de Syncthing podría migrarse con todos sus datos de un ordenador a otro mientras no se ejecute varias veces simultáneamente. El nombre legible del dispositivo se copia del nombre del equipo, pero podemos editarlo. Para ello, haz lo siguiente:&lt;/p>
&lt;ul>
&lt;li>En el menú principal, pulsa Acciones.&lt;/li>
&lt;li>Pulsa Ajustes.&lt;/li>
&lt;li>En el primer cuadro de edición que encontrarás, cambia el nombre de tu dispositivo.&lt;/li>
&lt;li>Pulsa Guardar.&lt;/li>
&lt;/ul>
&lt;p>Los cambios de nombre no se reflejarán en el resto de la red, salvo al vincular nuevos dispositivos. Para no causar confusión, se recomienda un nombre único, tan único y duradero como el identificador.&lt;/p>
&lt;p>Para conectar con otras personas, tendremos que pasarles (siempre en privado) nuestro identificador, o pedirles el suyo. Para conocer tu identificador de dispositivo, haz lo siguiente:&lt;/p>
&lt;ul>
&lt;li>Pulsa Acciones.&lt;/li>
&lt;li>Pulsa Mostrar ID.&lt;/li>
&lt;li>Aparecerá el identificador, junto con un código QR. Copia el texto del identificador y dáselo a la otra persona.&lt;/li>
&lt;li>Pulsa Cerrar.&lt;/li>
&lt;/ul>
&lt;h3 id="conexión-con-otro-dispositivo">Conexión con otro dispositivo&lt;/h3>
&lt;p>Si recibes un identificador de otra persona, busca y activa el botón &amp;ldquo;Añadir un dispositivo&amp;rdquo;. En el formulario que se muestra, introduce el identificador en el primer campo. En el segundo, introduce el nombre que quieres darle, o déjalo vacío para tomar el nombre remoto elegido por la otra persona. Finalmente, pulsa Guardar. ¿Esperabas más? Hay más cosas que se pueden configurar de cada dispositivo, pero no las veremos todavía.&lt;/p>
&lt;p>Por otro lado, si eres tú quien comparte su identificador, recibirás una notificación en la parte superior de la ventana cuando un dispositivo nuevo quiera conectar contigo. Confirma que quieres agregarlo, y se desplegará un diálogo idéntico al anterior. Los campos de identificador y nombre estarán rellenos, con todo listo para que pulses el botón Guardar.&lt;/p>
&lt;h3 id="creación-de-nuestra-primera-carpeta-compartida">Creación de nuestra primera carpeta compartida&lt;/h3>
&lt;p>Hemos conectado con éxito con el otro dispositivo. En este momento, aparece como conectado, pero sin uso. Al pulsar intro sobre su encabezado, se desplegará una tabla debajo con la información del dispositivo. Se pueden ver ciertos datos sensibles, como la dirección ip del dispositivo, su versión de Syncthing y su sistema operativo. Por este motivo, lo ideal es conectar sólo con gente de mucha confianza. Ten en cuenta que tus &amp;ldquo;contactos&amp;rdquo; también podrán saber cuándo te conectas y te desconectas, y crear un perfil con tus hábitos frente al ordenador.&lt;/p>
&lt;p>Ahora, vamos a compartir una carpeta. Para ello, busca y activa el botón &amp;ldquo;Agregar carpeta&amp;rdquo;. Se desplegará un diálogo en la parte inferior.&lt;/p>
&lt;p>De nuevo, vamos a rellenar dos campos:&lt;/p>
&lt;ul>
&lt;li>Etiqueta de la carpeta: el nombre que se verá en los otros dispositivos.&lt;/li>
&lt;li>Ruta de la carpeta: la ruta absoluta a la carpeta, tal y como aparece en la barra de direcciones del explorador de Windows. Por ejemplo, &lt;code>D:\Carpeta compartida&lt;/code>.&lt;/li>
&lt;/ul>
&lt;p>Pero esta vez no pulsaremos el botón Guardar. Mientras agregabas dispositivos, seguramente viste una lista con varios enlaces antes del formulario. Es una lista con &amp;ldquo;pestañas&amp;rdquo; que muestran otras partes del diálogo. En el diálogo de agregar carpeta, esa lista también está presente. Pulsamos sobre un enlace llamado &amp;ldquo;Compartiendo&amp;rdquo;.&lt;/p>
&lt;p>Desde aquí, podremos seleccionar el dispositivo o dispositivos con los que se compartirá la carpeta. Marcamos los que queramos y esta vez sí, podemos pulsar Guardar.&lt;/p>
&lt;p>¡Todo listo! Ahora, la carpeta se comportará como cualquier carpeta en la nube. Cuando dejemos un archivo, le llegará a la otra persona, y cuando lo borremos, desaparecerá. El navegador puede estar cerrado mientras hacemos un uso cotidiano de Syncthing.&lt;/p>
&lt;p>Podemos añadir más dispositivos a la carpeta, pero hay un problema: si nuestro ordenador se apaga, no podrán comunicarse entre sí. De hecho, cualquier dato que llegue a la carpeta deberá pasar por nuestro equipo antes de propagarse. Somos el centro de comunicación entre dispositivos, y de transferencia de datos. No parece muy práctico, así que vamos a solucionarlo.&lt;/p>
&lt;h2 id="creación-de-un-clúster-radial">Creación de un clúster radial&lt;/h2>
&lt;p>Si has llegado hasta aquí, has completado los primeros pasos con Syncthing, así que ¡enhorabuena! Vamos a desatar toda la potencia del P2P.&lt;/p>
&lt;p>En los apartados anteriores hemos conectado dos dispositivos, que podríamos llamar A y B. Ahora, queremos agregar a la misma carpeta un dispositivo C. Repetimos todos los pasos anteriores y lo conectamos, pero sólo queda vinculado al dispositivo que lo enlazó, por ejemplo al dispositivo A. El dispositivo A puede comunicarse con B y con C, pero B no puede comunicarse con C directamente. Para que esto sea posible, el dispositivo A debe convertirse en un &amp;ldquo;presentador&amp;rdquo;. Nos lo podemos imaginar en el centro de un círculo, presentando al resto de dispositivos entre sí, y estando estos en el exterior de la circunferencia. Si quieres indicar que uno de tus dispositivos enlazados es un presentador, haz lo siguiente:&lt;/p>
&lt;ul>
&lt;li>Busca el dispositivo que quieres modificar y despliégalo pulsando intro sobre su encabezado.&lt;/li>
&lt;li>Busca y activa el botón &amp;ldquo;Editar&amp;rdquo;.&lt;/li>
&lt;li>En el diálogo que se muestra, pulsa intro sobre el enlace &amp;ldquo;Compartiendo&amp;rdquo; para activar la pestaña correspondiente.&lt;/li>
&lt;li>Busca la casilla &amp;ldquo;Presentador&amp;rdquo; y márcala.&lt;/li>
&lt;li>Explora esta parte del diálogo. Observa que se muestran todas tus carpetas, y están marcadas las que compartes con ese dispositivo.&lt;/li>
&lt;li>Pulsa Guardar.&lt;/li>
&lt;/ul>
&lt;p>A partir de ahora, cuando ese dispositivo agregue más dispositivos a la carpeta, aparecerán automáticamente en tu lista de dispositivos, y cuando los elimine desaparecerán. Esto trae múltiples ventajas:&lt;/p>
&lt;ul>
&lt;li>Si el presentador apaga su dispositivo, el resto de dispositivos seguirán comunicándose y sincronizando datos entre ellos.&lt;/li>
&lt;li>Las transferencias hacia un dispositivo se repartirán entre todos, consiguiendo que cada uno tenga que enviar menos información y consumir menos ancho de banda para completar la sincronización de la carpeta.&lt;/li>
&lt;/ul>
&lt;h2 id="creación-de-un-clúster-en-malla">Creación de un clúster en malla&lt;/h2>
&lt;p>Esta es una práctica posible, pero no recomendada. Consiste en marcar todos los dispositivos como presentadores en ambos extremos. Es decir, tanto el que invita como el invitado indican que el otro es un presentador. De esa forma, cualquiera puede vincular dispositivos a una carpeta existente y propagar por toda la red la información del nuevo dispositivo. Cuando un dispositivo se da de baja de la red y alguien lo elimina, la información sobre el mismo vuelve a propagarse, por lo que es imposible hacerlo desaparecer y nuestra lista puede acabar llena de dispositivos fantasma. Si Syncthing detecta que la casilla de presentador se marca en ambos lados, emitirá un mensaje de advertencia.&lt;/p>
&lt;h2 id="carpetas-sólo-enviar-o-sólo-recibir">Carpetas sólo enviar o sólo recibir&lt;/h2>
&lt;p>Por defecto, las carpetas que creamos son de tipo &amp;ldquo;Enviar y recibir&amp;rdquo;. Esto significa que cualquiera puede modificar su contenido y propagar los cambios por toda la red. Pero a veces, nos puede interesar otro enfoque donde un dispositivo envíe algo y todos los demás lo reciban. Por ejemplo, imaginemos que tenemos los archivos de una web en nuestro disco duro, y todo preparado para sincronizar una carpeta con el servidor web. El servidor puede generar archivos temporales que no nos interesa recibir, pero queremos modificar la web y que los cambios queden reflejados allí casi al instante.&lt;/p>
&lt;p>Al igual que con los dispositivos, las carpetas deben modificarse desde ambos extremos. Uno o más dispositivos pueden elegir que la carpeta sea de tipo &amp;ldquo;Sólo enviar&amp;rdquo;, mientras otros que sea &amp;ldquo;sólo recibir&amp;rdquo;. Esto no afecta a la hora de sincronizar el contenido, que se propagará por toda la red según corresponda. Para cambiar el tipo de una carpeta, haz lo siguiente:&lt;/p>
&lt;ul>
&lt;li>Pulsa intro en el encabezado de la carpeta para expandirla.&lt;/li>
&lt;li>Busca y activa el botón Editar.&lt;/li>
&lt;li>Activa el enlace &amp;ldquo;Avanzado&amp;rdquo; para desplegar la parte correspondiente del diálogo.&lt;/li>
&lt;li>Modifica el tipo de carpeta en el cuadro combinado correspondiente.&lt;/li>
&lt;li>Finalmente, pulsa Guardar.&lt;/li>
&lt;/ul>
&lt;p>Se pueden modificar los archivos en una carpeta de tipo sólo recibir, pero no se propagarán por la red. Syncthing detectará que hay contenido que no debería estar ahí, y ofrecerá desde la web la posibilidad de eliminar las diferencias. El resto de dispositivos también verán que la carpeta no está totalmente sincronizada.&lt;/p>
&lt;h2 id="syncthing-y-la-privacidad">Syncthing y la privacidad&lt;/h2>
&lt;p>Como ya se ha mencionado anteriormente, las transferencias en Syncthing son seguras y van cifradas de extremo a extremo. Se realizan por conexiones SSL, y cada dispositivo dispone de su propio certificado y clave privada, generados la primera vez que arranca el programa. No obstante, hay algunas consideraciones de privacidad que se deben tener en cuenta:&lt;/p>
&lt;ul>
&lt;li>Cada dispositivo puede ver la dirección ip y el estado (conectado, desconectado, sincronizando) de todos los que tiene agregados. Usa Syncthing para compartir contenido sólo con personas de confianza.&lt;/li>
&lt;li>Ciertos datos pasan por los servidores del proyecto. Enseguida hablaremos más de ellos.&lt;/li>
&lt;/ul>
&lt;h2 id="componentes-de-syncthing">Componentes de Syncthing&lt;/h2>
&lt;p>Si bien es cierto que las transferencias en Syncthing suelen ser de equipo a equipo, este programa sólo es totalmente descentralizado en redes de área local. Sin embargo, a diferencia de otras soluciones de la competencia, todos los actores involucrados en el funcionamiento de Syncthing se pueden replicar y modificar desde la configuración. Veamos cuáles son:&lt;/p>
&lt;ul>
&lt;li>Servidor de descubrimiento global: es el servidor que Syncthing usa para descubrir otros dispositivos por su identificador y conectar con ellos.&lt;/li>
&lt;li>Repetidor: aunque Syncthing soporta UPNP y gestiona de forma transparente la apertura de puertos, a veces se encuentra con algún router que no tiene activada esta tecnología o un firewall muy estricto. En esos casos, recurre a un repetidor para sincronizar las carpetas. Los repetidores suelen reducir notablemente la velocidad de transferencia.&lt;/li>
&lt;li>Servidor de lista de repetidores: un servidor al que Syncthing acude para buscar los repetidores disponibles, por si tuviera que usarlos.&lt;/li>
&lt;li>Servidor de actualizaciones: el lugar donde el programa busca nuevas versiones.&lt;/li>
&lt;li>Servidor de recopilación de datos y estadísticas: el lugar donde Syncthing envía datos de carácter anónimo para mejorar el producto, si se lo consentimos. La primera vez que abramos la web nos pedirá consentimiento mediante una notificación. Este consentimiento se puede modificar desde las opciones.&lt;/li>
&lt;/ul>
&lt;p>Se recomienda no modificar ninguno de estos servidores, a menos que sepas lo que estás haciendo y quieras montar una red completa y privada.&lt;/p>
&lt;h2 id="conclusiones">Conclusiones&lt;/h2>
&lt;p>Existen muchas más cosas que se pueden cambiar en Syncthing. Se pueden limitar las velocidades de descarga y subida por dispositivo, configurar la interfaz web para que sea accesible desde el exterior, asignar un nombre de usuario y contraseña, cifrar carpetas sólo en algunos dispositivos, comprimir los datos antes de transferirlos, y mucho más. Sin embargo, son aspectos muy avanzados que no afectarán a la experiencia general de uso, y por lo tanto no hablaremos de ellos en este tutorial.&lt;/p>
&lt;p>Muchas gracias por leer hasta aquí. Ahora, ¡a sincronizar carpetas!&lt;/p></content:encoded></item><item><title>Cómo actualizar nuestros drivers con Driver Pack Solution evitando un montón de problemas</title><link>https://jmdaweb.github.io/posts/driverpack/</link><pubDate>Mon, 03 Jun 2024 09:43:45 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/driverpack/</guid><description>A pesar de ser el sistema de escritorio más usado, Windows siempre ha tenido un gran problema con la gestión de sus actualizaciones. Hoy en día, mediante Windows Update recibimos actualizaciones del sistema, como siempre. Gracias a Winget y la Microsoft Store, podemos mantener nuestras aplicaciones actualizadas de un modo muy similar. Pero ¿qué pasa con los drivers? Los drivers, o controladores, son una parte esencial de nuestro sistema que no debemos descuidar.</description><content:encoded>
&lt;p>A pesar de ser el sistema de escritorio más usado, Windows siempre ha tenido un gran problema con la gestión de sus actualizaciones. Hoy en día, mediante Windows Update recibimos actualizaciones del sistema, como siempre. Gracias a Winget y la Microsoft Store, podemos mantener nuestras aplicaciones actualizadas de un modo muy similar. Pero ¿qué pasa con los drivers?
Los drivers, o controladores, son una parte esencial de nuestro sistema que no debemos descuidar. Son los encargados de gestionar la relación entre el sistema y todos los componentes físicos del equipo y dispositivos periféricos. A veces, por Windows Update nos puede llegar alguna actualización de controladores. Otras, el fabricante de un componente incluye su propio software para actualizar su controlador. Pero en la mayoría de casos, tan pronto como se instala el controlador para un dispositivo y funciona, queda olvidado y ya no volvemos a saber de sus actualizaciones. Los fabricantes del equipo, interesados en que quede obsoleto tan pronto como sea posible para que te compres otro, ofrecen actualizaciones a cuentagotas y durante muy poco tiempo. Sin embargo, está demostrado que unos controladores actualizados solucionan problemas, alargan la vida del equipo, e incorporan mejoras que nunca imaginaríamos que vienen de ahí.
Existen muchas herramientas que permiten descargar e instalar los controladores más recientes para nuestros dispositivos. En este tutorial hablaremos de Driver Pack Solution, una de ellas. Lo que la diferencia de otras es algo que a mí me gusta mucho: puedes descargar todos los packs de controladores y no depender de Internet para configurar casi cualquier ordenador.&lt;/p>
&lt;h2 id="descarga">Descarga&lt;/h2>
&lt;p>Para descargar la versión más reciente de Driver Pack Solution, acudiremos a &lt;a href="https://driverpack.io/es/foradmin">esta página&lt;/a>. Si no es la primera vez que lo descargamos, puede ser útil comprobar el número de versión. En el momento de escribir este tutorial, la versión actual es la 17.10.14-24060. A continuación, asumiendo que queremos todos los packs, podemos descargar &lt;a href="https://dl.driverpack.io/DriverPack-Offline.torrent">este torrent&lt;/a> con nuestro cliente torrent favorito. La descarga ocupa unos 42 GB. Se recomienda añadir como excepción al antivirus la carpeta donde descarguemos Driver Pack Solution, ya que puede decidir borrar algunos de los ejecutables incluidos.&lt;/p>
&lt;p>Se puede prescindir del torrent descargando el ejecutable en línea y los packs que se muestran más abajo, pero no se recomienda. Entre otras cosas, porque la velocidad de descarga directa es tan baja que nos devuelve a aquellos felices años donde había módems de 56K.&lt;/p>
&lt;h2 id="ejecución-de-driverpack">Ejecución de DriverPack&lt;/h2>
&lt;p>Teniendo a mano un buen descompresor, como WinRar o 7-Zip, y el torrent descargado por completo, es momento de descomprimir ficheros. Concretamente, empezaremos por el único comprimido que hay en la raíz: DriverPack_17.10.14-24060.7z. Es muy importante elegir la opción &amp;ldquo;Extraer aquí&amp;rdquo; o similares, ya que los archivos extraídos servirán para completar la estructura de carpetas existente.&lt;/p>
&lt;p>A continuación, pulsamos intro sobre el archivo DriverPack.exe. Nos pedirá privilegios de administrador, y comenzará a realizar una serie de comprobaciones del sistema que pueden tardar varios minutos. Si detecta una conexión activa a Internet y nos invita a usarla, pulsaremos Cancelar para quedarnos sólo con el contenido fuera de línea.&lt;/p>
&lt;p>Después del arranque, la interfaz de DriverPack está lista para su uso. Con NVDA, se puede manejar como si de una página web se tratara, empleando los modos foco y exploración cuando sea necesario.&lt;/p>
&lt;h2 id="actualización-de-controladores">Actualización de controladores&lt;/h2>
&lt;p>He aquí la parte complicada. Driver Pack Solution viene muy bien como herramienta de diagnóstico, pero si la dejamos hacer decidirá por nosotros, y esas decisiones puede que no nos gusten. Concretamente:&lt;/p>
&lt;ul>
&lt;li>Puede instalar software publicitario y otros programas que a lo mejor no son deseados.&lt;/li>
&lt;li>Puede forzar la instalación de controladores que hagan que el equipo se vuelva inestable.&lt;/li>
&lt;/ul>
&lt;p>Así que parece mejor idea hacer las actualizaciones a mano. Para ello, activamos un enlace llamado &amp;ldquo;Modo experto&amp;rdquo;. Se mostrará una tabla con controladores que se pueden actualizar, y posiblemente otra con controladores que se pueden instalar. Debemos quedarnos con el contenido de esas tablas. Una vez copiado, podemos cerrar Driver Pack Solution.&lt;/p>
&lt;p>A continuación, extraeremos las partes que nos interesen de cada pack a una carpeta común, por ejemplo C:\drivers. Cada pack tiene una estructura similar en su interior: nombre del fabricante y sistemas para los que se ha hecho el controlador.&lt;/p>
&lt;p>Imaginemos que queremos actualizar una tarjeta de red Realtek en un Windows 10 u 11 de 64 bits. Abrimos el archivo DP_LAN_Realtek-NT_24060.7z, y extraemos el contenido de realtek\matchver\FORCED\10x64 a la carpeta común. Por si acaso, podemos incluir ntx64 y 88110x64. Debemos hacer esto con todos los packs. Si surgen dudas sobre qué extraer, siempre es mejor pasarse que quedarse corto, aunque sin extraer los packs enteros, que ocupan muchísimo descomprimidos. Por ejemplo, para actualizar una placa base Intel, es más sencillo extraer toda la carpeta intel del pack de chipset.&lt;/p>
&lt;p>Concluida la extracción, le llega el turno al administrador de dispositivos de Windows. Podemos abrirlo pulsando windows+r y escribiendo devmgmt.msc, o desde el menú que aparece al pulsar windows+x. Una vez abierto, comienza un proceso algo repetitivo:&lt;/p>
&lt;ol>
&lt;li>Abrimos el menú contextual del controlador que necesita actualizaciones, y elegimos &amp;ldquo;Actualizar controlador&amp;rdquo;.&lt;/li>
&lt;li>Pulsamos el botón &amp;ldquo;Examinar mi PC en busca de controladores&amp;rdquo;.&lt;/li>
&lt;li>Elegimos la carpeta donde están extraídos todos los drivers. Por ejemplo, C:\drivers. Nos aseguramos de que la casilla &amp;ldquo;Incluir subcarpetas&amp;rdquo; esté marcada. Si no es la primera vez que hacemos esto, todos los valores ya vendrán configurados y sólo tendremos que pulsar en Siguiente.&lt;/li>
&lt;li>Esperamos a que el controlador se actualice. Si es necesario reiniciar el equipo, lo reiniciamos antes de continuar con el siguiente controlador.&lt;/li>
&lt;/ol>
&lt;h2 id="algunos-consejos-útiles">Algunos consejos útiles&lt;/h2>
&lt;ul>
&lt;li>Windows sabe lo que es mejor para él. Si el administrador de dispositivos se niega a actualizar un controlador, y hemos comprobado que está extraído en la carpeta, no hay que forzarlo. De lo contrario, pueden producirse problemas. Es normal que Driver Pack sugiera controladores que no debe, y que la tabla de actualizaciones nunca se quede vacía.&lt;/li>
&lt;li>En otras ocasiones, Windows puede indicar que no hay nada que actualizar, simplemente porque no hemos extraído el controlador adecuado del pack correcto. Las tarjetas de sonido Realtek son un buen ejemplo de controladores repartidos entre varios packs, más aún si incluimos los componentes software de sus efectos de sonido.&lt;/li>
&lt;li>Hay controladores cuyo nombre cuesta identificar al buscar su correspondencia en la tabla. Generalmente, si llevan la palabra &amp;rsquo;estándar&amp;rsquo; o &amp;lsquo;genérico&amp;rsquo; en el nombre, pueden necesitar una actualización. Por ejemplo, un &amp;ldquo;Controlador Sata AHCI estándar&amp;rdquo; puede sustituirse por un &amp;ldquo;Intel Sata Ahci Controller&amp;rdquo; del paquete Mass Storage.&lt;/li>
&lt;li>A veces los fabricantes pueden tener razón y Windows no ser tan infalible. Si algún dispositivo falla tras actualizar, revierte al controlador anterior.&lt;/li>
&lt;/ul></content:encoded></item><item><title>Creación de redes seguras con OpenVPN</title><link>https://jmdaweb.github.io/posts/openvpn/</link><pubDate>Sun, 02 Jun 2024 18:43:45 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/openvpn/</guid><description>OpenVPN es un software que nos permite construir redes vpn seguras, aprovechando los estándares de cifrado TLS y los diversos algoritmos ofrecidos por OpenSSL y bibliotecas similares. En este tutorial veremos cómo configurar un servidor, y añadir algunos clientes. Además, a diferencia de otros tutoriales disponibles en la red, intentaremos mejorar la seguridad y nos centraremos en construir una subred a la que varios equipos puedan conectarse para interactuar entre sí.</description><content:encoded>
&lt;p>OpenVPN es un software que nos permite construir redes vpn seguras, aprovechando los estándares de cifrado TLS y los diversos algoritmos ofrecidos por OpenSSL y bibliotecas similares. En este tutorial veremos cómo configurar un servidor, y añadir algunos clientes. Además, a diferencia de otros tutoriales disponibles en la red, intentaremos mejorar la seguridad y nos centraremos en construir una subred a la que varios equipos puedan conectarse para interactuar entre sí.&lt;/p>
&lt;h2 id="1-requisitos">1. Requisitos&lt;/h2>
&lt;ul>
&lt;li>Un servidor con Debian instalado y acceso como root. Asumiremos que estamos usando Debian 13.&lt;/li>
&lt;li>Conocimientos suficientes para entender lo que aparece escrito por consola, ejecutar comandos básicos y editar ficheros.&lt;/li>
&lt;li>Leves nociones sobre arquitectura de redes: direcciones ip, máscara de subred, etc.&lt;/li>
&lt;li>Saber cuál es la dirección ip pública del servidor o, si la tiene, su ip dentro de la red local. En este tutorial asumimos que la ip del servidor es 192.168.1.2. Puedes conocer tu dirección ip con la utilidad ip.&lt;/li>
&lt;li>Saber cuál es el nombre del adaptador de red que tiene acceso a Internet. Puede ser eth0, o tener un nombre más complejo si el servidor es físico. Asumimos enp5s0f0. Puedes conocer los nombres de tus adaptadores con la utilidad ip.&lt;/li>
&lt;/ul>
&lt;h2 id="2-instalación-de-openvpn-en-el-servidor">2. Instalación de OpenVPN en el servidor&lt;/h2>
&lt;p>Para instalar la versión estable más reciente, se recomienda acudir a los repositorios de OpenVPN, en vez de descargar el paquete ofrecido por nuestra distribución. Ejecutaremos los siguientes comandos en orden:&lt;/p>
&lt;ul>
&lt;li>Agregamos la clave gpg de los repositorios: &lt;code>curl -fsSL https://swupdate.openvpn.net/repos/openvpn-repo-pkg-key.pub | gpg --dearmor &amp;gt; /etc/apt/trusted.gpg.d/openvpn-repo-pkg-keyring.gpg&lt;/code>&lt;/li>
&lt;li>Agregamos las URLs de los repositorios al sistema: &lt;code>echo &amp;quot;deb [arch=amd64 signed-by=/etc/apt/trusted.gpg.d/openvpn-repo-public.gpg] http://build.openvpn.net/debian/openvpn/stable trixie main&amp;quot; &amp;gt; /etc/apt/sources.list.d/openvpn-aptrepo.list&lt;/code>&lt;/li>
&lt;li>Refrescamos el índice de paquetes: &lt;code>apt update&lt;/code>&lt;/li>
&lt;li>Y finalmente, instalamos los paquetes que nos interesan: &lt;code>apt install openvpn openvpn-dco-dkms&lt;/code>&lt;/li>
&lt;li>Instalamos los paquetes del cortafuegos, que más adelante vendrán bien para redirigir el tráfico de red y conservar los cambios entre reinicios: &lt;code>apt install iptables iptables-persistent&lt;/code>&lt;/li>
&lt;/ul>
&lt;h2 id="3-configuración-de-openvpn-como-servidor">3. Configuración de OpenVPN como servidor&lt;/h2>
&lt;p>OpenVPN es un software que se ha diseñado para ejecutarse tantas veces como sea necesario. Podemos tener uno o varios clientes conectados a una o varias redes de terceros, y uno o varios servidores ofreciendo redes de distintos tipos a nuestros clientes. En este tutorial, sólo montaremos un servidor dentro del sistema Debian. Más adelante, haremos una ampliación para que haya dos servidores. El resto de clientes irán en equipos independientes.&lt;/p>
&lt;h3 id="31-creación-de-una-autoridad-de-certificación-propia">3.1. Creación de una autoridad de certificación propia&lt;/h3>
&lt;p>Para cifrar el tráfico entre todos los componentes de la red y verificar la autenticidad de la misma, trabajaremos con certificados de cliente y servidor. Dichos certificados irán firmados por una autoridad de certificación propia. Podríamos recurrir a una de terceros, pero no nos va a dar tanta flexibilidad, y el resultado va a ser el mismo.
OpenVPN viene con easy-rsa, un conjunto de scripts que facilitan la creación y gestión de autoridades y certificados. Usaremos easy-rsa para generar la autoridad, un certificado para el servidor, y tantos certificados extra como clientes vayan a conectarse. En este caso, se entiende por cliente el dispositivo, no la persona. Ya entraremos más adelante en el terreno de la autentificación con usuario y contraseña.
Nuestra autoridad de certificación se aloja dentro de una carpeta, por ejemplo /etc/openvpn/certs. La generaremos con el siguiente comando: &lt;code>make-cadir /etc/openvpn/certs&lt;/code>
Los scripts de easy-rsa se copiarán dentro de la carpeta recién creada. Por defecto, generarán certificados y claves RSA. Si bien es cierto que a día de hoy son suficientemente seguros, nos interesa cambiarlos por ecdsa por diversas razones: en el futuro escalarán mejor, y requieren menos potencia de procesamiento para ofrecer un cifrado igual de fuerte. Por lo tanto, vamos a editar el archivo /etc/openvpn/certs/vars y añadir lo siguiente al final (o seguir los consejos del propio archivo y quitar los comentarios en las líneas apropiadas):&lt;/p>
&lt;pre tabindex="0">&lt;code>set_var EASYRSA_ALGO ec
set_var EASYRSA_CURVE secp384r1
set_var EASYRSA_DIGEST &amp;#34;sha512&amp;#34;
&lt;/code>&lt;/pre>&lt;p>De paso, hemos aprovechado para indicar que se use sha512 en vez de sha256 al calcular la suma de verificación de los certificados.
Ahora, navegamos al directorio en cuestión, si no lo habíamos hecho ya: &lt;code>cd /etc/openvpn/certs&lt;/code>
El siguiente paso consiste en inicializar la infraestructura de clave pública, utilizando nuestro fichero de variables previamente editado: &lt;code>./easyrsa --vars=/etc/openvpn/certs/vars init-pki&lt;/code>
Generamos nuestra autoridad de certificados raíz: &lt;code>./easyrsa --vars=/etc/openvpn/certs/vars build-ca nopass&lt;/code>
La opción nopass hará que la clave privada no se cifre con una contraseña, lo que aporta cierta comodidad al generar certificados más adelante. Si queremos cifrarla e introducir la contraseña cada vez que usemos la autoridad, basta con quitar la opción.
Para completar la generación de la autoridad, rellenamos los datos solicitados por el asistente interactivo.
Generamos el fichero de parámetros de cifrado, siempre indicando qué variables usar: &lt;code>./easyrsa --vars=/etc/openvpn/certs/vars gen-dh&lt;/code>
Ya tenemos nuestra autoridad lista para generar certificados de servidor y clientes. El certificado de la autoridad, necesario más adelante, está en el archivo ca.crt dentro de la carpeta pki.&lt;/p>
&lt;h3 id="32-generación-de-un-certificado-de-servidor">3.2. Generación de un certificado de servidor&lt;/h3>
&lt;p>El certificado de la autoridad de certificación sólo se usará para firmar otros certificados, pero no cifrará las conexiones entre los clientes y el servidor. Aprovechando nuestra autoridad, vamos a generar uno específico. En esta ocasión, no es recomendable cifrar la clave privada con contraseña:
&lt;code>./easyrsa --vars=/etc/openvpn/certs/vars build-server-full midominio.com nopass&lt;/code>
Si aparece un asistente interactivo, lo rellenamos con la información solicitada. Todos los certificados se almacenan en la subcarpeta issued dentro de la carpeta pki, y todas las claves privadas en la subcarpeta private.&lt;/p>
&lt;h3 id="33-listas-de-revocación-y-clave-extra-de-cifrado">3.3. Listas de revocación y clave extra de cifrado&lt;/h3>
&lt;p>A veces, el certificado de un cliente puede verse comprometido, por lo que puede hacerse necesario revocar su validez. Nuestra infraestructura de clave pública debe mantener una lista actualizada con aquellos certificados que se han revocado. Debemos ejecutar el siguiente comando después de generar, renovar y revocar cualquier certificado, ya sea de servidor o de cliente. Incluso si no hay revocaciones, deberemos ejecutarlo cada 6 meses:
&lt;code>./easyrsa --vars=/etc/openvpn/certs/vars gen-crl&lt;/code>
Ahora, vamos a hacer algo que le va a dar más cifrado al cifrado. Si bien es cierto que un atacante que interceptara nuestras comunicaciones lo tendría ya muy complicado para saber lo que hacemos, puede deducir que nuestro tráfico va cifrado mediante TLS. Con la clave que generaremos a continuación, ofuscaremos el tráfico TLS para que no parezca tráfico TLS:
&lt;code>openvpn --genkey tls-crypt-v2-server tls-server-key.key&lt;/code>
Con todo esto, estamos preparados para elaborar un fichero de configuración de OpenVPN.&lt;/p>
&lt;h3 id="34-el-fichero-de-configuración-de-openvpn">3.4. El fichero de configuración de OpenVPN&lt;/h3>
&lt;p>Como hemos mencionado anteriormente, OpenVPN puede ejecutar tantas instancias de cliente y servidor como sea necesario. Cada instancia usa su propio fichero de configuración. Para facilitar la diferenciación entre clientes y servidores, los ficheros de cliente se almacenan en /etc/openvpn/client, y los ficheros de servidor en /etc/openvpn/server. Los ficheros que se usan para configurar OpenVPN en modo conexión punto a punto pueden ir fuera de estas carpetas. Sin embargo, todos deben tener la extensión .conf. A continuación, vamos a crear un fichero en /etc/openvpn/server. Lo llamaremos servidor.conf. Encima de cada línea, hay comentarios explicando su propósito.&lt;/p>
&lt;pre tabindex="0">&lt;code># Indicamos cuál es la ip del servidor, ya sea pública o dentro de una red de área local,
# seguida del puerto en el que escucha el servidor. Debe estar abierto en el router o firewall de la NAT, si lo hay, así como en el firewall del sistema,
# y finalmente el protocolo de conexión. Se pueden usar TCP o UDP. Parecería que TCP es más estable, pero UDP ya tiene mecanismos equivalentes para evitar errores. Por tanto, TCP es más lento y sólo debería emplearse cuando no se pueda recurrir a UDP.
local 192.168.1.2 1194 udp
# Podemos escuchar en todas las direcciones comentando la línea anterior y usando esta otra
#local * 1194 udp
# Además, se puede acompañar de otra para tcp
#local * 1194 tcp-server
# Dispositivo que se utilizará. El más sencillo es tun. Por su parte, tap proporciona una integración con la lan a más bajo nivel, pero su configuración es mucho más compleja
dev tun
# Parámetros del servidor: formato de la subred y máscara de subred. Los clientes que se conecten recibirán una ip en este rango. Cuidado, la subred de la VPN no debe coincidir con la subred del servidor. De lo contrario, podemos perder el contacto con la máquina.
server 10.0.0.0 255.255.255.0
# El túnel permanece abierto aunque se reciban ciertas señales del sistema
persist-tun
# cantidad de información que se almacena en el registro
verb 3
# Ruta al archivo de registro de esta instancia
log /var/log/openvpn/openvpn.log
# Reforzamos el algoritmo de autentificación
auth SHA512
# Si la instancia se desconecta, notifica a las partes conectadas para que actúen en consecuencia. Muy eficiente en UDP
explicit-exit-notify 1
# Cuando se complete la autentificación, se guardará un token en memoria para no tener que repetirla tras una caída
auth-gen-token
# Los clientes conectados podrán verse unos a otros. Útil, por ejemplo, para jugar a juegos en línea
client-to-client
# Las direcciones ip de los clientes se almacenarán en este fichero para no recibir una nueva dirección en cada conexión
ifconfig-pool-persist /var/log/openvpn/ip.txt
# Cantidad máxima de clientes que se conectarán a la red. No debería haber más de 250
max-clients 100
# Ruta al certificado de la autoridad que generamos al principio
ca /etc/openvpn/certs/pki/ca.crt
# Ruta al certificado del servidor
cert /etc/openvpn/certs/pki/issued/midominio.com.crt
# Ruta a la clave privada del servidor
key /etc/openvpn/certs/pki/private/midominio.com.key
# Ruta al fichero de lista de revocación de la autoridad
crl-verify /etc/openvpn/certs/pki/crl.pem
# Ruta a los parámetros dh generados
dh /etc/openvpn/certs/pki/dh.pem
# Los certificados remotos enviados por los clientes que se conecten deben ser de tipo cliente
remote-cert-tls client
# Reforzamos los algoritmos de cifrado de la conexión. Sólo se admitirán los más recomendados, descartando los que se consideran más débiles
tls-cert-profile preferred
# Ruta a la clave de ofuscación del tráfico
tls-crypt-v2 /etc/openvpn/certs/tls-server-key.key
# Indicamos explícitamente que actuaremos como servidor TLS
tls-server
# La versión mínima del protocolo TLS será la 1.2
tls-version-min 1.2
# Tiempo que permanecerán abiertas las conexiones
keepalive 10 120
# Forzamos explícitamente que esta instancia actúe como servidor
mode server
# Indicamos que su topología es de subred
topology subnet
# Transmitimos a los clientes directivas de configuración. Todo el tráfico irá dirigido por la VPN
push &amp;#34;redirect-gateway&amp;#34;
# Nuestro router, que incluye un servidor DNS, actuará como DNS
push &amp;#34;dhcp-option DNS 192.168.1.1&amp;#34;
# Algoritmos de cifrado de transmisión de datos
data-ciphers AES-256-GCM:AES-128-GCM:CHACHA20-POLY1305
# Además de la autentificación de cliente con certificado, también se debe introducir un usuario y una contraseña
plugin /usr/lib/openvpn/openvpn-plugin-auth-pam.so &amp;#34;login login USERNAME password PASSWORD&amp;#34;
&lt;/code>&lt;/pre>&lt;h3 id="35-cambios-de-configuración-en-el-kernel-y-retoques-finales">3.5. Cambios de configuración en el kernel y retoques finales&lt;/h3>
&lt;p>Ahora que ya tenemos un fichero de configuración completo, estamos listos para iniciar el servidor VPN. Podemos hacerlo con este comando: &lt;code>systemctl start openvpn-server@servidor&lt;/code>
Lo que va después del símbolo arroba es, como se puede deducir, el nombre del fichero de configuración, sin la extensión .conf.
Con este otro comando, configuraremos el servidor para que arranque al iniciar el sistema: &lt;code>systemctl enable openvpn-server@servidor&lt;/code>
Pero ahora nos enfrentamos a un problema: esta red va a dejar a los clientes sin acceso a Internet. Podrán verse unos a otros e interactuar entre sí, pero no podrán usar el servidor para comunicarse con el exterior. Para resolverlo, crearemos un fichero .conf nuevo en /etc/sysctl.d con el nombre que queramos, por ejemplo openvpn.conf:&lt;/p>
&lt;pre tabindex="0">&lt;code>echo net.ipv4.ip_forward=1 &amp;gt;&amp;gt; /etc/sysctl.d/openvpn.conf
&lt;/code>&lt;/pre>&lt;p>Podemos reiniciar el servidor para que los cambios surtan efecto.
Esto, sin embargo, no es suficiente. Hay que indicar a iptables que el tráfico recibido de la red interna se dirija a la red externa. Si prefieres usar UFW, puedes hacerlo. El comando con iptables sería el siguiente:&lt;/p>
&lt;pre tabindex="0">&lt;code># Recuerda ajustar tu subred y tu adaptador con los valores que correspondan
iptables -t nat -A POSTROUTING -s 10.0.0.0/8 -o enp5s0f0 -j MASQUERADE
&lt;/code>&lt;/pre>&lt;p>Perfecto, nuestros clientes ya podrán acceder a Internet usando la VPN, pero sólo hasta que el servidor se reinicie! Después, habrá que ejecutar el comando iptables otra vez. UFW se encarga de guardar la configuración para evitar esta situación. Sin UFW, se puede usar un comando como este para guardar las reglas actuales en disco y configurarlas para que carguen al arrancar:
&lt;code>netfilter-persistent save&lt;/code>&lt;/p>
&lt;h2 id="4-configuración-de-los-clientes">4. Configuración de los clientes&lt;/h2>
&lt;p>¿De qué serviría un servidor si los clientes no pueden conectarse a él? Es exactamente lo que sucede con la instancia de OpenVPN que acabamos de poner en marcha. En esta sección, vamos a preparar dos clientes para una misma persona. Uno de ellos será un ordenador con Windows, y otro un iPhone.&lt;/p>
&lt;h3 id="41-generación-de-los-certificados-de-cliente">4.1. Generación de los certificados de cliente&lt;/h3>
&lt;p>Supongamos que el propietario de los dos dispositivos se llama Pedro. Vamos a generar dos certificados, dos claves privadas, y dos claves de ofuscación de tipo cliente para él. En la consola, debemos navegar al directorio /etc/openvpn/certs, si es que nos habíamos salido de él. Una vez allí, ejecutamos los siguientes comandos:
&lt;code>./easyrsa --vars=/etc/openvpn/certs/vars build-client-full pedro-windows nopass&lt;/code>
&lt;code>./easyrsa --vars=/etc/openvpn/certs/vars build-client-full pedro-iphone nopass&lt;/code>
Si aparecen asistentes interactivos solicitando información, debemos rellenarla. La opción nopass indica que las claves privadas no deben ir cifradas con contraseña.
Importante refrescar la lista de revocación en cuanto hayamos terminado esta parte.
Para generar las claves de ofuscación de los clientes, necesitaremos hacer referencia a la clave de ofuscación del servidor. Los comandos quedarían de una forma similar a esta:
&lt;code>openvpn --tls-crypt-v2 /etc/openvpn/certs/tls-server-key.key --genkey tls-crypt-v2-client tls-client-pedro-windows.key&lt;/code>
&lt;code>openvpn --tls-crypt-v2 /etc/openvpn/certs/tls-server-key.key --genkey tls-crypt-v2-client tls-client-pedro-iphone.key&lt;/code>&lt;/p>
&lt;h3 id="42-generación-de-una-cuenta-para-el-cliente">4.2. Generación de una cuenta para el cliente&lt;/h3>
&lt;p>Además de un certificado único, una clave privada única y una clave de ofuscación única, podemos reforzar la seguridad obligando a los clientes a que introduzcan un nombre de usuario y una contraseña. Esto, normalmente, se consigue mediante plugins. OpenVPN viene con un plugin que nos permite usar las cuentas del sistema, y que ya agregamos mientras preparábamos el servidor. Existen algunos plugins más, pero suelen ser de pago y quedan fuera de este tutorial.
Agreguemos una cuenta de usuario para Pedro: &lt;code>useradd pedro&lt;/code>
Y ahora, démosle una contraseña: &lt;code>passwd pedro&lt;/code>
Ya está todo preparado para que Pedro se conecte, salvo una cosa: Pedro necesita dos archivos de configuración que no tiene.&lt;/p>
&lt;h3 id="43-generación-de-los-archivos-de-configuración">4.3. Generación de los archivos de configuración&lt;/h3>
&lt;p>A pesar de que OpenVPN se puede configurar con un archivo conf y certificados en diferentes rutas, como hemos hecho en el servidor, es más cómodo para los clientes tener un único fichero con toda la información necesaria para conectarse. Como dijimos antes, los ficheros de credenciales son un buen punto de partida. En este apartado veremos un archivo de configuración de ejemplo con todo lo necesario. Deberemos crear un archivo por cada dispositivo, y deben tener la extensión .ovpn.&lt;/p>
&lt;pre tabindex="0">&lt;code># Utilizaremos el protocolo UDP
proto udp
# o, si lo preferimos, el protocolo TCP
#proto tcp-client
persist-tun
# Servidor y puerto al que nos conectaremos
remote midominio.com 1194
# Asumimos el rol de cliente en la VPN
client
# Y lo mismo al cifrar las comunicaciones con TLS
tls-client
# Reforzamos el algoritmo de autentificación
auth SHA512
# Antes de desconectarnos, notificaremos al servidor para que libere recursos de forma eficiente
explicit-exit-notify 1
# Sólo se acepta el certificado TLS si este es de tipo servidor
remote-cert-tls server
# La versión mínima soportada de TLS será la 1.2
tls-version-min 1.2
# El servidor necesita autentificación con usuario y contraseña
auth-user-pass
# El usuario y la contraseña, por seguridad, no se almacenan en memoria una vez se han usado
auth-nocache
# Tipo de dispositivo de red
dev tun
# Autoridad certificadora
&amp;lt;ca&amp;gt;
Contenidos del fichero /etc/openvpn/certs/pki/ca.crt. Viene en el fichero de credenciales.
&amp;lt;/ca&amp;gt;
# Certificado del cliente
&amp;lt;cert&amp;gt;
Contenidos del archivo /etc/openvpn/certs/pki/issued/pedro-windows.crt o pedro-iphone.crt, según corresponda. Viene en el fichero de credenciales.
&amp;lt;/cert&amp;gt;
# Clave privada del cliente
&amp;lt;key&amp;gt;
Contenidos del fichero /etc/openvpn/certs/pki/private/pedro-windows.key o pedro-iphone.key, según corresponda. Viene en el fichero de credenciales.
&amp;lt;/key&amp;gt;
# Clave de ofuscación
&amp;lt;tls-crypt-v2&amp;gt;
Contenidos del archivo de clave de ofuscación del cliente, según corresponda. No viene en el fichero de credenciales.
&amp;lt;/tls-crypt-v2&amp;gt;
&lt;/code>&lt;/pre>&lt;p>Ahora ya tenemos todo lo necesario para que el cliente se conecte: un archivo de configuración, un usuario y una contraseña. Podrá entrar en la VPN, interactuar con los demás clientes a través de ella, y visitar sitios web dificultando que los atacantes espíen su tráfico. Sin embargo, no podríamos finalizar este tutorial sin mencionar los principales clientes.&lt;/p>
&lt;h2 id="5-openvpn-y-openvpn-connect">5. OpenVPN y OpenVPN Connect&lt;/h2>
&lt;p>OpenVPN, aunque es software libre y acepta colaboraciones de la comunidad, dispone de una versión de pago con opciones avanzadas para empresas. Una de sus soluciones, OpenVPN Access Server, facilita la gestión de certificados, cuentas de usuario y distribución de configuraciones de cliente, y admite dos usuarios totalmente gratis. Por otro lado, si no disponemos de servidor propio, se puede usar la nube de OpenVPN, y establecer una conexión a través de sus propias redes. Ofrece tres conexiones gratuitas.
En cuanto a clientes, en la web se hace una diferenciación: por un lado están los de la comunidad, y por otro &lt;a href="https://openvpn.net/client-connect-vpn-for-windows/">OpenVPN Connect&lt;/a>, más orientado al mundo empresarial. En realidad, tienen características muy parecidas y funcionan de manera similar. En Windows, OpenVPN Connect está creado con una interfaz Electron que, por algún motivo desconocido, resulta casi imposible de manejar con lectores de pantalla. Por tanto, es mejor el cliente libre: &lt;a href="https://openvpn.net/community-downloads/">https://openvpn.net/community-downloads/&lt;/a>
La interfaz de este segundo cliente está en español y utiliza controles clásicos. Desde su icono en la bandeja del sistema y su ventana podremos hacer las principales operaciones: importar archivos de configuración, conectarnos e introducir el nombre de usuario y la contraseña. Por si fuera poco, también facilita la gestión de archivos .ovpn en el explorador de Windows. Dispone de opciones más avanzadas, y se puede usar para levantar un servidor en Windows, pero eso queda fuera de este tutorial.
En las plataformas móviles, OpenVPN Connect se vuelve más manejable, y es la única alternativa que tenemos. Se puede descargar para &lt;a href="https://apps.apple.com/us/app/openvpn-connect/id590379981">iPhone&lt;/a> y &lt;a href="https://play.google.com/store/apps/details?id=net.openvpn.openvpn">Android&lt;/a>. Puede importar archivos de configuración desde una URL, y puede aceptar archivos compartidos desde otras aplicaciones. Por el momento, no es capaz de importar archivos almacenados en el teléfono desde la propia app, al menos en iPhone.&lt;/p>
&lt;h2 id="6-anexo-creación-de-una-red-de-puente">6. Anexo: creación de una red de puente&lt;/h2>
&lt;p>Este apartado está pensado sólo para servidores Linux caseros (tipo Raspberry Pi) y clientes Windows. Al profundizar como vamos a hacer, las diferencias entre plataformas ya comienzan a notarse y hacen que todo se vuelva más complejo.
A lo largo de este tutorial hemos creado una VPN que nos permite redirigir nuestro tráfico de Internet, conectarnos con otros dispositivos e intercambiar información de manera segura como si todos estuvieran en la misma red. Sin embargo, hay paquetes de red a bajo nivel que no pasan por la VPN, y nos pueden servir para tareas tales como buscar y conectarnos a dispositivos que se encuentran en la red de casa, o simplemente desviar esos paquetes también por nuestra red. Con las mejoras que aplicaremos a continuación, los dispositivos que tenemos en casa podrán vernos y conectarse como si nuestro equipo estuviera ahí, y será el router el encargado de asignarnos una dirección IP.
Para conservar la implementación hecha hasta aquí, trabajaremos sobre un nuevo archivo de configuración creado a partir del que ya tenemos. Lo llamaremos servidor-tap:
&lt;code>cp /etc/openvpn/server/servidor.conf /etc/openvpn/server/servidor-tap.conf&lt;/code>
Ahora, editamos el fichero servidor-tap.conf y realizamos los siguientes cambios:&lt;/p>
&lt;ul>
&lt;li>Cambiamos el puerto 1194 por otro, por ejemplo el 1195: &lt;code>port 1195&lt;/code>&lt;/li>
&lt;li>Eliminamos la línea &lt;code>dev tun&lt;/code>, ya que usaremos otro dispositivo. En su lugar, escribiremos &lt;code>dev tap0&lt;/code>&lt;/li>
&lt;li>Eliminamos la línea que comienza por server, ya que no definiremos una subred propia. En su lugar, escribimos esto: &lt;code>server-bridge&lt;/code>&lt;/li>
&lt;li>Podemos tener un registro independiente para esta nueva instancia: &lt;code>log /var/log/openvpn/openvpn-tap.log&lt;/code>&lt;/li>
&lt;li>Eliminamos la línea que comienza por ifconfig-pool-persist. Ahora el encargado de asignarnos dirección IP no es OpenVPN.&lt;/li>
&lt;li>Eliminamos la línea que comienza por push &amp;ldquo;dhcp-option DNS&amp;hellip;, ya que será el router quien nos indique los servidores DNS.&lt;/li>
&lt;/ul>
&lt;p>Podemos reutilizar un fichero de cliente en Windows. Los cambios son bastante más simples en este caso. Basta con sustituir la línea &lt;code>dev tun&lt;/code> por &lt;code>dev tap&lt;/code>.&lt;/p>
&lt;p>Para acabar, generaremos y ejecutaremos un script en el servidor. Dicho script permitirá iniciar y detener el puente de red que usará el servidor VPN en modo tap. Se debe configurar con mucho cuidado, especialmente si trabajamos por ssh. Cualquier descuido nos puede dejar sin red hasta el reinicio del dispositivo. El script que se proporciona a continuación construye el puente, modifica iptables para que la VPN de apartados anteriores siga funcionando, y pone en marcha la nueva si se llama con el argumento start. Si se llama con el argumento stop, deshace todos los cambios que ha hecho. Podemos alojarlo en el archivo &lt;code>/usr/local/bin/openvpn-bridge&lt;/code>. Antes de probarlo, se deben modificar las primeras líneas y adaptarlas a nuestras necesidades:&lt;/p>
&lt;pre tabindex="0">&lt;code>#!/bin/sh
# Interfaz de puente. Se puede dejar la que viene por defecto
br=&amp;#34;br0&amp;#34;
# Lista de interfaces tap que participan en el puente,
# por ejemplo tap=&amp;#34;tap0 tap1 tap2&amp;#34;.
# Se puede dejar la que viene
tap=&amp;#34;tap0&amp;#34;
# Interfaz de red real del sistema
# Mismo nombre de adaptador que en el tutorial
eth=&amp;#34;enp5s0f0&amp;#34;
# Ip local del servidor y máscara de subred en formato abreviado
eth_ip_netmask=&amp;#34;192.168.1.2/24&amp;#34;
# Ip de broadcast. Suele ser la 255 de la subred
eth_broadcast=&amp;#34;192.168.1.255&amp;#34;
# Puerta de enlace. Suele coincidir con la IP del router
eth_gateway=&amp;#34;192.168.1.1&amp;#34;
# MAC del adaptador de red del servidor. Se la asignaremos al adaptador de puente para que el router no note la diferencia
eth_mac=&amp;#34;1a:2b:3c:4d:5e:6f&amp;#34;
case &amp;#34;$1&amp;#34; in
start)
for t in $tap; do
openvpn --mktun --dev $t
done
brctl addbr $br
brctl addif $br $eth
for t in $tap; do
brctl addif $br $t
done
for t in $tap; do
ip addr flush dev $t
ip link set $t promisc on up
done
ip addr flush dev $eth
ip link set $eth promisc on up
ip addr add $eth_ip_netmask broadcast $eth_broadcast dev $br
ip link set $br address $eth_mac
ip link set $br up
ip route add default via $eth_gateway
systemctl start openvpn-server@servidor-tap
# Adaptar subred si es necesario
iptables -t nat -D POSTROUTING -s 10.0.0.0/8 -o $eth -j MASQUERADE
iptables -t nat -A POSTROUTING -s 10.0.0.0/8 -o $br -j MASQUERADE
;;
stop)
systemctl stop openvpn-server@servidor-tap
# Adaptar subred si es necesario
iptables -t nat -D POSTROUTING -s 10.0.0.0/8 -o $br -j MASQUERADE
iptables -t nat -A POSTROUTING -s 10.0.0.0/8 -o $eth -j MASQUERADE
ip link set $br down
brctl delbr $br
for t in $tap; do
openvpn --rmtun --dev $t
done
ip link set $eth promisc off up
ip addr add $eth_ip_netmask broadcast $eth_broadcast dev $eth
ip route add default via $eth_gateway
;;
*)
echo &amp;#34;Usage: openvpn-bridge {start|stop}&amp;#34;
exit 1
;;
esac
exit 0
&lt;/code>&lt;/pre>&lt;p>Ahora que toda la información está en el script, lo convertimos en ejecutable: &lt;code>chmod +x /usr/local/bin/openvpn-bridge&lt;/code>
Y para terminar, ponemos en marcha nuestra nueva VPN basada en puente de red: &lt;code>openvpn-bridge start&lt;/code>
Para detener el puente y devolver la red a su estado anterior: &lt;code>openvpn-bridge stop&lt;/code>
De momento, no se dan instrucciones para que el puente se ponga en marcha al iniciar el sistema. Tal vez lo hagamos en una próxima revisión de este tutorial.
Tras completar este apartado, tenemos no uno, sino dos servidores VPN. El primero podemos compartirlo con invitados de confianza que dispongan de una amplia variedad de dispositivos. El segundo creará una relación más profunda y cercana con nuestra red y sus dispositivos, y funcionará sólo con clientes que tengan Windows.&lt;/p>
&lt;h2 id="7-referencias">7. Referencias&lt;/h2>
&lt;p>He tenido que leer diversos tutoriales en la red para hacerme una idea de la configuración que más se ajustaba a lo que quería. Y como siempre, me olvido de quién los ha escrito y de su dirección. Sin embargo, no me baso en ellos para escribir los míos propios, sino en las fuentes de información que acompañan al producto:&lt;/p>
&lt;ul>
&lt;li>Página de manual de OpenVPN, disponible en /usr/share/doc/openvpn/openvpn.8.html. Existen versiones equivalentes en línea, pero ninguna tan actualizada como la que acompaña al paquete.&lt;/li>
&lt;li>Por qué deberías usar certificados ECC en vez de RSA: &lt;a href="https://www.thesslstore.com/blog/you-should-be-using-ecc-for-your-ssl-tls-certificates/">https://www.thesslstore.com/blog/you-should-be-using-ecc-for-your-ssl-tls-certificates/&lt;/a>&lt;/li>
&lt;li>La ayuda de easy-rsa, que se puede obtener con el comando &lt;code>./easyrsa help&lt;/code>.&lt;/li>
&lt;li>Las páginas de documentación de OpenVPN, en las que se explica, entre otras cosas, cómo agregar el repositorio para Debian y ciertos conceptos de red que pueden no quedar claros al principio.&lt;/li>
&lt;li>Y mucha, mucha paciencia y pruebas, en las que ha habido no pocos errores.&lt;/li>
&lt;/ul>
&lt;p>¡Muchas gracias por leer hasta aquí! Si tienes un servidor VPS, ahora te toca a ti.&lt;/p></content:encoded></item><item><title>Tutorial: firma digital de correos electrónicos</title><link>https://jmdaweb.github.io/posts/tutorial-firma-de-correos/</link><pubDate>Sun, 02 Jun 2024 15:10:00 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/tutorial-firma-de-correos/</guid><description>¡Hola a todos! Como todo el mundo sabe, existen muchos mecanismos para proteger nuestra cuenta de correo frente a invitados no deseados: una contraseña fuerte, métodos de autenticación de doble factor, preguntas de seguridad, etc. También existen mecanismos a nivel de servidor que previenen la suplantación de identidad: registros SPF, DKIM y DMARC. Estos últimos sólo nos interesan a los que tenemos dominios y servidores, y logran que un atacante malintencionado que desee suplantar la identidad de un usuario legítimo acabe en el buzón de correo no deseado de la víctima.</description><content:encoded>
&lt;p>¡Hola a todos!
Como todo el mundo sabe, existen muchos mecanismos para proteger nuestra cuenta de correo frente a invitados no deseados: una contraseña fuerte, métodos de autenticación de doble factor, preguntas de seguridad, etc. También existen mecanismos a nivel de servidor que previenen la suplantación de identidad: registros SPF, DKIM y DMARC. Estos últimos sólo nos interesan a los que tenemos dominios y servidores, y logran que un atacante malintencionado que desee suplantar la identidad de un usuario legítimo acabe en el buzón de correo no deseado de la víctima. Y todo ello de forma transparente, sin que el usuario tenga que hacer nada. Pero ¿cómo podemos proteger nuestros correos de la manipulación? ¿Podemos hacer algo para que un intermediario no vea lo que contienen?
Ya nos conectamos usando conexiones https, indicando que los servidores imap y smtp van con conexión segura, pero a veces el intermediario malintencionado puede ser el propio servicio de correo.
Como anécdota, hace unos 15 años una vecina de Cuba vino a casa porque quería enviarle a su hermana unas fotos de sus niños. La cuenta de correo de la hermana era de un dominio cubano. Las fotos salieron bien de aquí en PDF, pero llegaron distorsionadas. No fue ninguna sorpresa, ya que nos avisaron de que el régimen tenía por costumbre intervenir y manipular correos a conveniencia. La solución del momento fue cifrar el PDF con contraseña, y transmitir la contraseña por una vía alternativa. Misteriosamente, al hacerlo así, llegaron bien. Si eso sucediera hoy, podríamos aplicar una solución mucho mejor: una firma digital.
Las firmas digitales en los correos no tienen nada que ver con las firmas que a veces vemos al pie de los mismos. Las primeras garantizan la autenticidad del origen y la integridad del contenido, y las segundas contienen lo que el remitente quiere que veamos. Existen dos métodos para firmar digitalmente un correo:&lt;/p>
&lt;ul>
&lt;li>S/MIME: es compatible con casi todos los programas de correo existentes. Consiste en una clave privada generada en local, y un certificado expedido por una autoridad de certificación. Los certificados más comunes, que incluyen la identidad del remitente, cuestan dinero. Sin embargo, los que veremos aquí son gratis y cambian el método de generación un poco.&lt;/li>
&lt;li>OpenPGP: se trata de un sistema descentralizado donde tú generas tus propias claves privada y pública. En vez de disponer de una autoridad de certificación que nos avale, son los propios destinatarios los que deciden cuánto confían en nuestra clave. La mayoría de programas de correo suelen necesitar algún tipo de complemento para trabajar con esta tecnología. Thunderbird, desde su versión 78, lleva ya el soporte integrado. Hablaremos de ello otro día si os interesa.&lt;/li>
&lt;/ul>
&lt;p>Hecha esta breve introducción, vamos a ver cómo obtener un certificado de firma de correo con Actalis y cómo instalarlo en Thunderbird. Actalis es una de las pocas entidades certificadoras que nos ofrece certificados gratuitos durante un año para todas las cuentas que queramos. Está reconocida por todos los navegadores y sistemas operativos. Yo llevo varios años con ellos, y gracias a la ayuda de un buen amigo y un poco de ruido, conseguimos que cambiasen su captcha inaccesible por Recaptcha.&lt;/p>
&lt;h2 id="obtención-del-certificado">Obtención del certificado&lt;/h2>
&lt;ol>
&lt;li>Accede al &lt;a href="https://extrassl.actalis.it/portal/uapub/freemail?lang=en">formulario de solicitud&lt;/a>. Está en inglés, pero eso no será un problema.&lt;/li>
&lt;li>Introduce tu correo electrónico en el único cuadro de edición que hay en la página, resuelve el captcha y envía el formulario.&lt;/li>
&lt;li>Recibirás un correo electrónico en italiano y en inglés con un código de verificación. Copia el código y pégalo en el cuadro de edición destinado a tal efecto.&lt;/li>
&lt;li>Marca las casillas indicando que aceptas los términos del servicio y pulsa el botón que envía este nuevo formulario.&lt;/li>
&lt;li>En la página de confirmación hay una contraseña. Cópiala y consérvala en un lugar seguro, la necesitarás más adelante.&lt;/li>
&lt;li>Recibirás otro correo, en italiano y en inglés, con un archivo adjunto. En ese archivo van tanto la clave privada como el certificado, cifrados en formato pfx. La contraseña que lo descifra es la que copiaste en el paso anterior.&lt;/li>
&lt;li>Descomprime el archivo zip en una carpeta de tu disco duro. Quedará el archivo con extensión .pfx.&lt;/li>
&lt;/ol>
&lt;h2 id="instalación-del-certificado-en-mozilla-thunderbird">Instalación del certificado en Mozilla Thunderbird&lt;/h2>
&lt;p>El certificado que acabamos de recibir se puede abrir directamente e instalar en Windows con un asistente muy sencillo. Al hacerlo, quedará disponible en aplicaciones tales como Outlook, el correo de Windows y también Thunderbird. Sin embargo, en este dará algunos problemas. Por lo tanto, lo importaremos en el almacén de Mozilla, donde todo funciona bien. Así, además, al copiar el perfil a otros equipos o usarlo en modo portable, el certificado se vendrá con nosotros estemos donde estemos.&lt;/p>
&lt;ol>
&lt;li>En Thunderbird, ve al menú Herramientas, y pulsa enter sobre Ajustes.&lt;/li>
&lt;li>En el cuadro de búsqueda, escribe Certificados y pulsa enter de nuevo.&lt;/li>
&lt;li>Tabula hasta el botón &amp;ldquo;Administrar certificados&amp;rdquo; y actívalo.&lt;/li>
&lt;li>Asegúrate de que está seleccionada la pestaña &amp;ldquo;Sus certificados&amp;rdquo;. Si no lo está, puedes activar el modo exploración de NVDA y seleccionarla con flechas y enter.&lt;/li>
&lt;li>Pulsa el botón Importar. En el diálogo que se carga, busca el archivo .pfx extraído en la sección anterior.&lt;/li>
&lt;li>Introduce la contraseña que descifra el archivo pfx. El certificado aparecerá en el árbol, listo para usar durante un año. Si es necesario, Thunderbird permite salvarlo junto con la clave privada, y cifrarlo con otra contraseña distinta.&lt;/li>
&lt;li>Pulsa Aceptar para cerrar el diálogo de certificados, y control+w para cerrar las preferencias y regresar a la bandeja de entrada.&lt;/li>
&lt;/ol>
&lt;h2 id="vinculación-de-la-cuenta-con-el-certificado">Vinculación de la cuenta con el certificado&lt;/h2>
&lt;p>Ahora, debemos indicar a Thunderbird que nuestra cuenta de correo tiene asociado ese certificado. De lo contrario, no sabrá que puede usarlo.&lt;/p>
&lt;ol>
&lt;li>Ve al menú Herramientas, y pulsa Intro sobre Configuración de la cuenta.&lt;/li>
&lt;li>Selecciona tu cuenta en el árbol, si no lo estaba ya. Después, tabula hasta el botón Administrar identidades y actívalo.&lt;/li>
&lt;li>En la lista, selecciona la identidad cuyo correo va asociado al certificado. Normalmente debería haber una sola identidad. Después, pulsa el botón Editar.&lt;/li>
&lt;li>En el nuevo diálogo que se muestra, selecciona la pestaña &amp;ldquo;Cifrado de extremo a extremo&amp;rdquo;. Puedes activar el modo exploración, navegar con las flechas y pulsar enter.&lt;/li>
&lt;li>Al tabular hasta el grupo &amp;ldquo;S/MIME&amp;rdquo;, verás un botón Seleccionar. Púlsalo para elegir tu certificado de firma.&lt;/li>
&lt;li>En el cuadro combinado se mostrarán sólo los certificados que puedes usar para firmar correos con tu dirección. Es raro que haya más de uno, pero puede suceder. Elige el que más te convenga y acepta.&lt;/li>
&lt;li>Thunderbird preguntará si quieres usar el mismo certificado para cifrar correos. Si es así, responde que sí.&lt;/li>
&lt;li>El resto de casillas del diálogo se pueden configurar según tus gustos. A mí me gusta mantener los correos sin cifrar, pero que vayan firmados por defecto. Para ello, se puede marcar la casilla &amp;ldquo;Firmar mensajes sin cifrar&amp;rdquo; y marcar el botón de opción &amp;ldquo;Desactivar cifrado para mensajes nuevos&amp;rdquo;. Si tenemos tanto S/MIME como OpenPGP disponibles, puede ser buena idea elegir la opción &amp;ldquo;Preferir S/MIME&amp;rdquo;.&lt;/li>
&lt;li>Pulsa los botones Cerrar o Aceptar en todos los diálogos, y control+w para cerrar la configuración de la cuenta.&lt;/li>
&lt;/ol>
&lt;h2 id="creación-de-un-correo-firmado">Creación de un correo firmado&lt;/h2>
&lt;p>Me encantaría extenderme en esta sección y llenarla de complicados pasos que justifiquen por qué casi nadie firma sus correos, pero es que no se puede. Marcando la casilla del paso 8 de la sección anterior termina todo. Todos los correos que enviemos irán firmados de serie. Cuando pase un año y el certificado caduque, Thunderbird fallará y dirá que el certificado ya no es válido. En ese momento, habrá que eliminarlo y repetir este tutorial paso a paso. Ahora bien, ¿qué pasa si la firma no está activada por defecto, o queremos desactivarla para que un correo se envíe sin firmar?
En ocasiones, sabemos que un correo va a ser manipulado sí o sí. Por ejemplo, cuando lo enviamos a una lista de correo. Los destinatarios recibirán una alerta indicando que el mensaje ha sido manipulado y pueden asustarse, por lo que nos interesa quitar la firma. En la ventana de redacción del mensaje, aparecerá un nuevo menú en la barra de menú llamado &amp;ldquo;Seguridad&amp;rdquo;. En él, la opción que nos interesa se llama &amp;ldquo;Firmar digitalmente&amp;rdquo;, y puede estar marcada o desmarcada. Si está desmarcada, el mensaje no se firmará.&lt;/p>
&lt;h2 id="verificación-de-la-firma-de-un-correo-recibido">Verificación de la firma de un correo recibido&lt;/h2>
&lt;p>Al recibir un correo firmado, Thunderbird almacenará el certificado del remitente en su propio almacén, dentro de la sección &amp;ldquo;Otras personas&amp;rdquo;. Esto nos vendrá bien más adelante para cifrar.
Si recorremos la ventana del mensaje con el tabulador, llegaremos a sus cabeceras. En ellas, un botón llamado S/MIME nos informará del estado de la firma y el cifrado, si lo hay. Si el mensaje ha sufrido alguna manipulación mientras viajaba por la red, lo sabremos al instante.&lt;/p>
&lt;h2 id="creación-de-un-mensaje-cifrado">Creación de un mensaje cifrado&lt;/h2>
&lt;p>Hasta ahora hemos visto cómo garantizar la integridad de un mensaje. Sin embargo, ¿qué pasa si también queremos que nadie, salvo el destinatario, pueda verlo? En ese caso, debemos cifrarlo. En la ventana de creación de mensajes, en el menú Seguridad, también hay una opción para cifrar, pero tiene truco: aunque esté marcada, sólo funcionará si el certificado del destinatario está en la sección &amp;ldquo;Otras personas&amp;rdquo; del almacén y sigue siendo válido. De lo contrario, Thunderbird avisará con un error.
El cifrado de mensajes es asimétrico: ciframos el contenido con la clave pública del destinatario (su certificado). El destinatario, por su parte, descifrará el mensaje con la clave privada correspondiente, que sólo tiene él. Nadie más podrá saber qué contiene. Del mismo modo, si quiere respondernos cifrando el mensaje, deberá tener nuestro certificado.&lt;/p>
&lt;h2 id="conclusiones">Conclusiones&lt;/h2>
&lt;p>En este tutorial hemos visto una de las tecnologías más usadas a nivel empresarial para firmar y cifrar mensajes de correo electrónico: S/MIME. Hemos visto cómo obtener un certificado que durará un año, y que después puede seguir renovándose por otro año totalmente gratis. Sin embargo, la cosa no acaba aquí: no hemos hablado de OpenPGP, y sólo se ha explicado la configuración en Thunderbird. ¿Qué tal si lo ampliamos para hablar de OpenPGP y otros clientes de correo? Tal vez, próximamente, haya una segunda parte.&lt;/p></content:encoded></item><item><title>Tutorial: Instalación de Arch Linux de forma accesible</title><link>https://jmdaweb.github.io/posts/tutorial-instalacion-de-archlinux-de-forma-accesible/</link><pubDate>Sun, 02 Jun 2024 15:10:00 +0200</pubDate><author>jmdaweb@hotmail.com (José Manuel Delicado Alcolea)</author><guid>https://jmdaweb.github.io/posts/tutorial-instalacion-de-archlinux-de-forma-accesible/</guid><description>Hola a todos. En esta entrada vengo con un tutorial muy especial, un tutorial que lleva años en un archivo en mi disco duro y que ha evolucionado muchísimo a lo largo del tiempo. Empecé haciéndolo para publicarlo en una web de cuyo nombre no quiero acordarme, después lo conservé y lo actualicé para mí, para no olvidar lo que en él se cuenta, y ahora he vuelto a adaptarlo para publicar una vez más.</description><content:encoded>
&lt;p>Hola a todos.
En esta entrada vengo con un tutorial muy especial, un tutorial que lleva años en un archivo en mi disco duro y que ha evolucionado muchísimo a lo largo del tiempo. Empecé haciéndolo para publicarlo en una web de cuyo nombre no quiero acordarme, después lo conservé y lo actualicé para mí, para no olvidar lo que en él se cuenta, y ahora he vuelto a adaptarlo para publicar una vez más. Esta vez no hablaremos de un programa, servicio o protocolo, sino de un sistema operativo completo. Un sistema que tal vez no esté preparado para sustituir a Windows todavía, o tal vez sí. Eso dejaremos que lo decida cada uno después de leer y probar por sí mismo.
Antes de entrar en faena, pido perdón a los que saben más de Linux que yo y lo usan diariamente, pues estoy seguro de que este documento no está exento de errores y suposiciones que a lo mejor en realidad resultan de otra manera. Lo he hecho lo mejor que he podido, esforzándome para que los usuarios con menos conocimientos entiendan cuál es el propósito de cada comando, paquete o ajuste realizado. Dicho todo esto, ¡empezamos!&lt;/p>
&lt;h2 id="introducción">Introducción&lt;/h2>
&lt;p>En este tutorial vamos a instalar Arch Linux, una distribución ligera, simple y flexible de Linux, y lo vamos a hacer de forma accesible en una máquina virtual, con instrucciones para hacerlo también en un equipo físico o preparar un pen drive que se pueda conectar a cualquier ordenador. Al acabar, y si se siguen bien todos los pasos del tutorial, Arch Linux debería estar ejecutándose en español, con varios escritorios y lector de pantalla .&lt;/p>
&lt;h2 id="qué-caracteriza-a-esta-distribución">¿Qué caracteriza a esta distribución?&lt;/h2>
&lt;p>Arch Linux se caracteriza por ser una distribución pequeña, potente, simple y flexible. No se suele usar en entornos de producción, ya que actualiza los paquetes en cuanto son publicados por sus respectivos desarrolladores, y esto puede generar cierta inestabilidad aunque hayan sido calificados como estables. Viene muy bien para desarrollar y hacer pruebas de todo tipo, y para conocer Linux en toda su extensión. Arch no tiene herramientas que automaticen cosas tales como la instalación del sistema o la configuración de ciertos paquetes, y por tanto hay que operar a bajo nivel.
Otra característica por la que Arch destaca es el Arch User Repository (aur), que contiene software en forma de código fuente, así como archivos de configuración para poder compilarlo sin errores, de forma automatizada y con las dependencias necesarias.
&lt;a href="https://www.archlinux.org">Visitar el sitio web de Arch Linux&lt;/a>&lt;/p>
&lt;h2 id="requisitos-de-software">Requisitos de software&lt;/h2>
&lt;p>Para poder hacer todos los pasos descritos en este tutorial, se ha utilizado el siguiente software. Hay programas alternativos que hacen las mismas funciones, pero no se han probado a la hora de hacer este proceso y podrían dar malos resultados:&lt;/p>
&lt;ul>
&lt;li>(Sólo si virtualizas) VMWare Workstation Pro, versión 17.5.2 o posterior.&lt;/li>
&lt;li>Si planeas conectarte remotamente: NVDA, versión 2024.1 o posterior&lt;/li>
&lt;li>La &lt;a href="https://archlinux.org/download/">Imagen iso más reciente de Arch Linux&lt;/a>&lt;/li>
&lt;/ul>
&lt;h2 id="conocimientos-necesarios">Conocimientos necesarios&lt;/h2>
&lt;p>Para no tener problemas durante la instalación de Arch, hay que disponer de los siguientes conocimientos:&lt;/p>
&lt;ul>
&lt;li>Manejo del OCR, la navegación por objetos y los comandos de revisión de NVDA (sólo en máquina virtual y con acceso SSH).&lt;/li>
&lt;li>Experiencia a la hora de crear y configurar máquinas virtuales, ya que en este tutorial no se explicará nada sobre ello.&lt;/li>
&lt;li>Tener experiencia manejando algún intérprete de línea de comandos, ya sea cmd o bash, y comprender los resultados devueltos por la ejecución de un comando.&lt;/li>
&lt;/ul>
&lt;h2 id="preparación-del-equipo-y-el-medio-de-instalación">Preparación del equipo y el medio de instalación&lt;/h2>
&lt;p>Bien, teniendo todas las herramientas citadas en el apartado anterior, podemos comenzar.&lt;/p>
&lt;h3 id="creación-de-la-máquina-virtual">Creación de la máquina virtual&lt;/h3>
&lt;p>Para este tutorial se ha utilizado una máquina virtual con las siguientes características:&lt;/p>
&lt;ul>
&lt;li>Memoria ram: 4 GB, aunque se puede reducir bastante, incluso hasta 512 MB&lt;/li>
&lt;li>Procesador: Se han utilizado 6 procesadores con 2 cores y virtualización de IOMU, pero la máquina puede ejecutarse sin problema con mucha menos potencia.&lt;/li>
&lt;li>Disco duro: 32 GB NVMe, dividido en varios archivos y con expansión dinámica&lt;/li>
&lt;li>red: Para poder trabajar con la máquina independientemente del lugar en el que nos encontremos, se ha usado nat. Se puede poner en bridged para situar la máquina en la misma subred que el resto de equipos físicos, o añadir un adaptador bridged más adelante.&lt;/li>
&lt;li>Tipo de bus: paravirtualized SCSI. Se puede elegir sin problema cualquiera de los otros.&lt;/li>
&lt;li>Compatibilidad del hardware: Workstation 17.5.x, aunque las anteriores tampoco deberían dar problemas.&lt;/li>
&lt;li>Teclado mejorado.&lt;/li>
&lt;li>Controlador USB 3.1.&lt;/li>
&lt;li>Aceleración de gráficos.&lt;/li>
&lt;li>Resto de parámetros: Se pueden dejar por defecto. En el asistente de creación diremos que instalaremos el sistema más tarde, y que es un Linux de tipo Other Linux kernel 6.x 64-bit. No olvidemos apuntar la unidad de cd al archivo iso del sistema operativo.&lt;/li>
&lt;/ul>
&lt;p>A continuación, en las opciones avanzadas de la máquina virtual, pestaña Options, categoría Advanced, podremos elegir el tipo de firmware. Elige BIOS si quieres emular un pc tradicional, o Uefi si deseas un firmware más moderno. La forma de particionar e instalar el gestor de arranque varían.&lt;/p>
&lt;h3 id="preparación-del-medio-de-instalación">Preparación del medio de instalación&lt;/h3>
&lt;p>Al arrancar la máquina virtual por primera vez, se escucharán dos tonos ascendentes. Dichos tonos indican que el menú de arranque de Isolinux está en pantalla, listo para elegir una opción. Entraremos en la máquina, pulsaremos flecha abajo y a continuación enter.
Si tomamos instantáneas con el OCR, veremos que el sistema se va cargando, se montan los sistemas de archivos, se inicia la red, etc.
Por último, escucharemos a Speakup hablando, veremos que root ha iniciado sesión automáticamente, y que la consola está lista para escribir comandos. Es en este momento cuando entraremos dentro de la máquina.
Lo primero que se debe hacer es poner el teclado en español. Esto se hace llamando a loadkeys, que recibe como parámetro un archivo de mapa de teclado. En nuestro caso:
&lt;code>loadkeys es&lt;/code>
Y ya estamos listos para escribir comandos.&lt;/p>
&lt;h4 id="personalización-de-la-voz-de-speakup">Personalización de la voz de Speakup&lt;/h4>
&lt;p>Speakup comenzará hablando en inglés, algo que puede ser muy incómodo si no somos angloparlantes. Para cambiar el idioma de la voz, deberemos editar el archivo que carga el servicio del lector de pantalla. Usaremos un comando como este para hacerlo:
&lt;code>nano /lib/systemd/system/espeakup.service&lt;/code>
La consola cambiará radicalmente al ejecutar este comando, mostrando el editor de textos nano. Podemos usar las flechas para movernos por el texto, NVDA y Speakup anunciarán correctamente nuestra posición.
Usando las flechas, buscaremos una línea con el siguiente contenido:
&lt;code>environment=&amp;quot;default_voice=&amp;quot;&lt;/code>
Y la completaremos del siguiente modo:
&lt;code>environment=&amp;quot;default_voice=es&amp;quot;&lt;/code>
Para guardar los cambios, pulsamos control+x, la y para confirmar, y enter. Después, ejecutamos estos dos comandos para recargar la unidad de servicio modificada y reiniciarlo:
&lt;code>systemctl daemon-reload&lt;/code>
&lt;code>systemctl restart espeakup&lt;/code>
Speakup ya debería hablar con una voz española. Si queremos subir el volumen, este comando puede servir: &lt;code>amixer set Master 100%&lt;/code>&lt;/p>
&lt;h4 id="conexión-a-internet">Conexión a Internet&lt;/h4>
&lt;p>Arch Linux necesita descargar sus paquetes desde la red. Se puede preparar un medio de instalación con paquetes ya descargados, pero el método para hacerlo se sale del propósito de esta guía. Al trabajar con una máquina virtual, esta ya estará conectada, por lo que puedes saltar a la siguiente sección. Antes de hacerlo, no obstante, sincroniza el reloj con el comando que aparece al final.
Si instalas Arch en un equipo real, lo mejor que puedes hacer es conectarlo por cable a la red. Si dispones de un router con dhcp, todo lo demás sucederá automáticamente.
Para conectarte a una red wi-fi, desbloquea los adaptadores disponibles, que podrían estar bloqueados por software: &lt;code>rfkill unblock all&lt;/code>
Después, abre la consola de iwd: &lt;code>iwctl&lt;/code>
En ella, se pueden enumerar los dispositivos disponibles: &lt;code>device list&lt;/code>
A continuación, buscar redes: &lt;code>station dispositivo scan&lt;/code>. Sustituye dispositivo por el identificador de tu dispositivo.
Y verlas: &lt;code>station dispositivo get-networks&lt;/code>
Finalmente, para conectar: &lt;code>station dispositivo connect nombre_red&lt;/code>
Si el nombre de la red contiene espacios, debe ir entre comillas. El programa preguntará la contraseña, si la red está cifrada.
Para salir de la utilidad iwctl, se debe pulsar ctrl+d.
Ahora que está conectada, podemos acceder mediante SSH a la máquina. Pero antes, sincronicemos el reloj con este comando: &lt;code>timedatectl set-ntp true&lt;/code>&lt;/p>
&lt;h4 id="acceso-mediante-ssh">Acceso mediante SSH&lt;/h4>
&lt;p>El acceso mediante SSH nos permitirá instalar Arch desde una consola tradicional de Windows, con un lector de pantalla conocido y sin necesidad de acceder a la máquina virtual. Para habilitarlo, haremos lo siguiente:&lt;/p>
&lt;ul>
&lt;li>Cambiamos la contraseña de root: &lt;code>passwd&lt;/code>. Se debe escribir la contraseña dos veces. No aparecerá ningún carácter en la ventana al teclear.&lt;/li>
&lt;li>Nos conectamos desde el menú VM &amp;gt; SSH &amp;gt; Connect to SSH. En un equipo real, deberemos conocer su dirección ip. El comando &lt;code>ip a&lt;/code> proporcionará la información necesaria.&lt;/li>
&lt;/ul>
&lt;p>La primera vez, el cliente SSH nos preguntará si confiamos en la huella identificativa de la máquina. Escribimos &lt;code>yes&lt;/code> y pulsamos enter.
Después, nos preguntará la contraseña asignada a root. Al escribirla y pulsar enter, estaremos dentro.
Nota: con cada arranque del medio de instalación, la huella del sistema cambia. Para evitar errores, edita el archivo .ssh/known_hosts que se encuentra en tu carpeta de usuario y elimina la línea correspondiente a la máquina virtual.&lt;/p>
&lt;h2 id="creación-y-formateo-de-particiones">Creación y formateo de particiones&lt;/h2>
&lt;p>Como ya se ha dicho antes, Arch Linux no tiene un instalador como tal, y todo debe hacerse a mano. El primer paso consiste en particionar el disco duro y formatear las particiones creadas.
Existen multitud de esquemas de particionado, como por ejemplo:&lt;/p>
&lt;ul>
&lt;li>Una partición ext4 para el sistema operativo y, opcionalmente, una partición swap (ideal en entornos BIOS).&lt;/li>
&lt;li>Una partición de arranque, que se montaría en /boot, otra partición para el sistema y, opcionalmente, una partición swap (ideal en entornos UEFI).&lt;/li>
&lt;li>Una partición de arranque, otra partición para el sistema base, otra partición para los usuarios montada en /home y otra partición montada en /usr.&lt;/li>
&lt;/ul>
&lt;p>Hay muchas más combinaciones, así como métodos para hacer que Linux coexista con otros sistemas operativos. Por defecto, en la máquina virtual anterior el firmware es de tipo BIOS, pero el modo UEFI es más moderno y se encuentra en todos los equipos físicos nuevos. Elige una de las dos siguientes secciones para particionar tu disco, según corresponda.
Para saber si tu sistema utiliza UEFI, usa este comando: &lt;code>ls /sys/firmware/efi/efivars&lt;/code>
Si el comando falla, entonces estamos en un sistema que usa BIOS, o arranca en modo de compatibilidad con BIOS (CSM). De lo contrario, se trata de un sistema UEFI.
En las siguientes secciones, se asume que el disco está en /dev/nvme0n1. Sin embargo, en otras configuraciones de controlador y disco, podría estar en /dev/sda, /dev/vda, /dev/mmcblk0, etc. Utiliza el comando &lt;code>lsblk&lt;/code> para descubrir cuál es tu disco de destino.&lt;/p>
&lt;h3 id="en-sistemas-bios">En sistemas BIOS&lt;/h3>
&lt;p>Para particionar el disco usaremos la herramienta fdisk, y trabajaremos con el disco duro que creamos cuando hicimos la máquina virtual, y que se encuentra en /dev/nvme0n1:
&lt;code>fdisk /dev/nvme0n1&lt;/code>
Al ejecutar este comando se cargará la consola de fdisk, y se creará automáticamente una tabla de particiones mbr, ya que el disco no tiene ninguna. Si el disco tuviera alguna, pulsa la o para reemplazarla. Ten en cuenta que los cambios no se escribirán hasta completar todos los pasos, así que no hay nada que temer.
A continuación pulsamos la tecla n y enter para crear una nueva partición.
Fdisk nos preguntará de qué tipo debe ser la partición. Como el tipo está puesto por defecto en primaria, no tenemos que pulsar la letra p, tan sólo pulsar enter de nuevo.
A continuación nos preguntará el número de partición primaria que utilizaremos de las 4 disponibles. Una vez más pulsamos enter, ya que el 1 está seleccionado por defecto.
Lo siguiente que nos pide es el tamaño de la partición, especificando el desplazamiento inicial. El valor por defecto que se nos ofrece para el sector inicial es el 2048, situado más o menos al principio del disco, así que podemos pulsar enter de nuevo sin modificar nada.
La primera partición se usará para extender la memoria RAM y será de tipo Swap. Vamos a hacer que ocupe 2 GB. Escribimos +2G y pulsamos enter.
Ahora, pulsamos la t para cambiar su tipo. Fdisk preguntará el código hexadecimal correspondiente. Escribimos 82 y pulsamos enter.
Repetimos los pasos anteriores para crear una partición para el sistema. Como queremos que la partición ocupe el resto del disco, pulsamos enter sin introducir nada cuando fdisk nos pregunta por el sector final.
Finalmente, veremos un mensaje como este: &lt;code>Created a new partition 2 of type 'Linux' and of size 30 GiB&lt;/code>. El tipo es Linux, así que no hay que modificarlo. Lo que sí se debe hacer es marcar la partición creada como autoarrancable, o de lo contrario el sistema no podrá iniciarse. Para ello pulsamos la a, y enter nuevamente. Tras pulsar el 2 para indicar la segunda partición, veremos el siguiente mensaje: &lt;code>The bootable flag on partition 2 is enabled now&lt;/code>.
Pulsando la p podemos ver un esquema general de lo que hemos creado. Si todo es correcto, se puede pulsar la w para escribir los cambios en el disco. De lo contrario, se puede pulsar la q para salir sin guardar nada.
Ya tenemos las particiones creadas y asociadas a los dispositivos /dev/nvme0n1p1 y /dev/nvme0n1p2. Lo siguiente que hay que hacer es formatearlas.
El siguiente comando preparará la partición swap: &lt;code>mkswap /dev/nvme0n1p1&lt;/code>
Y con la utilidad mkfs.ext4, formatearemos la principal: &lt;code>mkfs.ext4 /dev/nvme0n1p2&lt;/code>&lt;/p>
&lt;h3 id="en-sistemas-uefi">En sistemas UEFI&lt;/h3>
&lt;p>Para particionar el disco usaremos la herramienta gdisk, y trabajaremos con el disco duro que creamos cuando hicimos la máquina virtual, y que se encuentra en /dev/nvme0n1:
&lt;code>gdisk /dev/nvme0n1&lt;/code>
Al ejecutar este comando se cargará la consola de gdisk, y se creará automáticamente una tabla de particiones gpt, ya que el disco no tiene ninguna. Si el disco tuviera alguna, pulsa la o para reemplazarla. Ten en cuenta que los cambios no se escribirán hasta completar todos los pasos, así que no hay nada que temer.
Lo primero que haremos será crear la partición de arranque, a la que asignaremos 512 MB, o hasta 4 veces más si pretendemos instalar varios núcleos. Para ello, pulsamos la n, seguida de enter.
En todos los casos, se puede dejar el número de partición como está y pulsar enter.
El primer sector comienza en 2048. Por defecto, gdisk siempre nos ofrecerá un primer sector recomendado en función del final de la partición anterior, o en este caso, el más adecuado al principio del disco.
Después, nos preguntará por el sector final. Escribimos +512M y pulsamos enter.
Para completar la partición, gdisk necesita conocer su tipo. El tipo de las particiones EFI es ef00.
Ahora, repetiremos los pasos y crearemos una partición swap de 2 GB, y una partición Linux con el espacio restante. El tipo correspondiente a la partición swap es 8200, mientras que para una partición Linux estándar es 8300. En este último caso, no hace falta escribirlo.
Ya tenemos la tabla de particiones lista. Pulsando la w seguida de enter, y tras responder afirmativamente a la pregunta de seguridad, se grabará en disco.
Las particiones están creadas y asociadas a los dispositivos /dev/nvme0n1p1, /dev/nvme0n1p2 y /dev/nvme0n1p3. Lo siguiente que hay que hacer es formatearlas.
Formateamos la partición EFI en FAT32: &lt;code>mkfs.fat -F 32 /dev/nvme0n1p1&lt;/code>
El siguiente comando preparará la partición swap: &lt;code>mkswap /dev/nvme0n1p2&lt;/code>
Y con la utilidad mkfs.ext4, formatearemos la principal: &lt;code>mkfs.ext4 /dev/nvme0n1p3&lt;/code>&lt;/p>
&lt;p>Si todo sale bien, el disco está correctamente formateado y listo para que podamos instalar el sistema operativo.&lt;/p>
&lt;h2 id="instalación-de-arch-linux">Instalación de Arch Linux&lt;/h2>
&lt;p>El primer paso para poder instalar Arch Linux es montar las particiones creadas con anterioridad. Deberemos montar tanto la partición swap como la ext4, y la partición EFI en sistemas UEFI. Se puede hacer con los siguientes comandos.&lt;/p>
&lt;h3 id="bios">BIOS&lt;/h3>
&lt;p>Montamos la partición swap: &lt;code>swapon /dev/nvme0n1p1&lt;/code>
Montamos la partición ext4 en la carpeta /mnt: &lt;code>mount -t ext4 /dev/nvme0n1p2 /mnt&lt;/code>&lt;/p>
&lt;h3 id="uefi">UEFI&lt;/h3>
&lt;p>Montamos la partición swap: &lt;code>swapon /dev/nvme0n1p2&lt;/code>
Montamos la partición ext4 en la carpeta /mnt: &lt;code>mount -t ext4 /dev/nvme0n1p3 /mnt&lt;/code>
Y montamos la partición EFI, creando una subcarpeta para ella: &lt;code>mount --mkdir -t vfat /dev/nvme0n1p1 /mnt/boot&lt;/code>&lt;/p>
&lt;p>Teniendo montadas las particiones, le llega el turno a pacstrap. Pacstrap es un script que se encarga de instalar paquetes. Recibe como primer parámetro la ruta donde se instalarán. El resto de argumentos son nombres de paquetes o grupos de paquetes, como base, base-devel, gnome, gnome-extra, etc. En este tutorial vamos a instalar los grupos base y base-devel, no queremos todavía entornos de escritorio. También instalaremos un kernel, el firmware, controladores para tarjetas de sonido, el lector de pantalla speakup, las utilidades para controlar la tarjeta de sonido y un editor de texto:
&lt;code>pacstrap /mnt base base-devel linux linux-firmware sof-firmware espeakup alsa-utils nano&lt;/code>
Al ejecutar este comando se iniciará la descarga e instalación de paquetes. Obtendremos los paquetes básicos, el kernel, y el compilador gcc. Más adelante este último será indispensable para instalar paquetes desde el Arch User Repository.
Terminada la instalación, generamos un archivo fstab para que el sistema instalado pueda montar los sistemas de archivos adecuadamente al arrancar:
&lt;code>genfstab -U -p /mnt &amp;gt;&amp;gt; /mnt/etc/fstab&lt;/code>
Lo siguiente que debemos hacer es simular que estamos trabajando desde la copia que acabamos de instalar. Para ello tenemos el comando arch-chroot. Recibe como argumento la ruta a la que queremos cambiarnos. Podemos escribir algo como esto:
&lt;code>arch-chroot /mnt&lt;/code>
Se cargará la consola bash de la copia instalada, y la raíz del sistema de archivos estará en /mnt. No podremos manipular el sistema de archivos que se cargó inicialmente en el live cd hasta que salgamos de aquí.
Vamos a seguir modificando aspectos de la instalación. Lo primero que haremos será establecer un nombre de equipo. Este nombre hay que grabarlo en el archivo /etc/hostname, y en nuestro tutorial será arch-vmware:
&lt;code>echo arch-vmware &amp;gt; /etc/hostname&lt;/code>
Importante: en este tutorial se emplea mucho el comando &lt;code>echo&lt;/code> para escribir información en archivos de texto. Ten en cuenta que este comando escribe líneas en esos archivos, por lo que sólo debe usarse una vez. Si quieres deshacer algún cambio, utiliza un editor para cambiar el archivo, como por ejemplo nano.
Ahora vamos a establecer el idioma y la zona horaria, ya que nuestra copia instalada no está aún en español. Para ello debemos editar el archivo /etc/locale.gen:
&lt;code>nano /etc/locale.gen&lt;/code>
Se deben eliminar los comentarios de los idiomas que queramos habilitar, borrando el signo de número que hay delante de cada uno. En nuestro caso, vamos a habilitar el inglés de Estados Unidos y el español de España, ambos en UTF-8. Corresponden a las líneas que empiezan por en_US.UTF-8 y es_ES.UTF-8. Siempre se recomienda habilitar el inglés de Estados Unidos, ya que muchos programas lo buscarán cuando alguna cadena de texto no esté traducida.
Para guardar los cambios, pulsamos ctrl+x, respondemos que sí pulsando la y, y finalmente pulsamos enter. Volveremos nuevamente a la consola bash.
Ahora, generamos los idiomas:
&lt;code>locale-gen&lt;/code>
Y finalmente, establecemos el español como idioma del sistema:
&lt;code>echo LANG=es_ES.UTF-8 &amp;gt; /etc/locale.conf&lt;/code>
El método para establecer la zona horaria es distinto al de cambiar el idioma. En este caso tenemos que crear un vínculo simbólico. La sintaxis sería:
&lt;code>ln -sf /usr/share/zoneinfo/zone/subzone /etc/localtime&lt;/code>
En este ejemplo vamos a establecer la hora de Madrid:
&lt;code>ln -sf /usr/share/zoneinfo/Europe/Madrid /etc/localtime&lt;/code>
A continuación, configuramos el ajuste horario con este comando: &lt;code>hwclock --systohc&lt;/code>
Y habilitamos un servicio para que sincronice el reloj con Internet: &lt;code>systemctl enable systemd-timesyncd&lt;/code>
Para terminar, debemos hacer que el teclado virtual también esté en español:
&lt;code>echo KEYMAP=es &amp;gt; /etc/vconsole.conf&lt;/code>
Ya hemos terminado de establecer las preferencias de idioma, zona horaria y teclado. Es hora de ocuparnos de otras cosas, como la red.
Por defecto, la iso de Arch Linux está configurada para usar una red cableada, buscar un servidor dhcp, y obtener la dirección ip dinámicamente. En la copia instalada necesitamos instalar un gestor de red y habilitarlo:
&lt;code>pacman -S --noconfirm networkmanager&lt;/code>
&lt;code>systemctl enable NetworkManager&lt;/code>
&lt;code>systemctl enable systemd-resolved&lt;/code>
Otro pequeño problema que nos vamos a encontrar es que el nombre del host no se anuncia en la red local. Para resolverlo, vamos a instalar samba:
&lt;code>pacman -S --noconfirm samba&lt;/code>
El servicio que nos interesa habilitar es el nmb, encargado de anunciar el nombre de la máquina. Para ello hacemos:
&lt;code>systemctl enable nmb&lt;/code>
Pero cuidado, aquí debemos hacer algo más, ya que los servicios de Samba necesitan leer de un archivo de configuración, y no tienen ninguno:
&lt;code>touch /etc/samba/smb.conf&lt;/code>
Ya tenemos todo listo para que el servicio nmb funcione. Vamos a instalar el preciado servidor ssh, para poder conectarnos desde fuera de la máquina si fuera necesario:
&lt;code>pacman -S --noconfirm openssh&lt;/code>
&lt;code>systemctl enable sshd&lt;/code>
Permitimos que root inicie sesión con contraseña: &lt;code>echo permitRootLogin yes &amp;gt;&amp;gt; /etc/ssh/sshd_config&lt;/code>
Con la ayuda del editor nano, podemos cambiar la voz de Speakup, tal y como hicimos en el medio de instalación. Consulta las primeras secciones de este tutorial para encontrar las instrucciones. Recuerda habilitar el servicio: &lt;code>systemctl enable espeakup&lt;/code>
Para acabar de instalar nuestra copia de Arch, nos falta cambiar la contraseña de root e instalar un cargador de arranque. Lo primero se puede hacer ejecutando simplemente el comando passwd, tal y como hicimos anteriormente:
&lt;code>passwd&lt;/code>
Para lo segundo debemos instalar otro paquete y ejecutar un par de comandos. Instalamos el gestor de arranque grub:
&lt;code>pacman -S --noconfirm grub&lt;/code>&lt;/p>
&lt;h3 id="en-sistemas-bios-1">En sistemas BIOS&lt;/h3>
&lt;p>Instalamos el gestor de arranque en el sector mbr, y en el sector de arranque de la partición:
&lt;code>grub-install --recheck /dev/nvme0n1&lt;/code>&lt;/p>
&lt;h3 id="en-sistemas-uefi-1">En sistemas UEFI&lt;/h3>
&lt;p>Instalamos el paquete efibootmgr: &lt;code>pacman -S --noconfirm efibootmgr&lt;/code>
Instalamos el gestor de arranque en la partición EFI:
&lt;code>grub-install --target=x86_64-efi --efi-directory=boot --bootloader-id=GRUB&lt;/code>
Si se añade al comando anterior el argumento &lt;code>--removable&lt;/code>, Grub no modificará las variables EFI alojadas en la NVRAM y quedará preparado para arrancar desde un disco extraíble. Útil si, por ejemplo, estamos creando un pen drive con un sistema operativo para llevar y usar en cualquier ordenador con Uefi.
Se puede añadir al disco extraíble soporte para sistemas BIOS con capacidad de arrancar discos GPT. Para ello, usa gdisk y crea una cuarta partición entre los sectores 34 y 2067. Deberás indicar que su tipo es ef02. No importa su orden en la tabla, puedes crearla incluso con el sistema ya instalado. Después, instala GRUB una segunda vez. Por ejemplo: &lt;code>grub-install --target=i386-pc /dev/nvme0n1&lt;/code>
Importante: tal y como se ha configurado, Arch no iniciará si el arranque seguro está activado. Deberás desactivarlo en la configuración de tu firmware.&lt;/p>
&lt;p>Opcionalmente, se pueden instalar las imágenes que actualizan el microcódigo del procesador:
&lt;code>pacman -S --noconfirm intel-ucode amd-ucode&lt;/code>
También se puede (y se recomienda) configurar Grub para que emita un pitido al arrancar. Así sabremos en qué momento podemos manipular el gestor de arranque, llegado el caso.
Se puede configurar un pitido simple: &lt;code>echo GRUB_INIT_TUNE=\&amp;quot;480 440 1\&amp;quot; &amp;gt;&amp;gt; /etc/default/grub&lt;/code>
O uno más complejo y entretenido: &lt;code>echo GRUB_INIT_TUNE=\&amp;quot;1750 523 1 392 1 523 1 659 1 784 1 1047 1 784 1 415 1 523 1 622 1 831 1 622 1 831 1 1046 1 1244 1 1661 1 1244 1 466 1 587 1 698 1 932 1 1195 1 1397 1 1865 1 1397 1\&amp;quot; &amp;gt;&amp;gt; /etc/default/grub&lt;/code>
A continuación, generamos el archivo de configuración:
&lt;code>grub-mkconfig -o /boot/grub/grub.cfg&lt;/code>
Todo listo, es hora de salir del entorno simulado, desmontar las particiones y reiniciar el sistema. Para salir del entorno simulado, podemos escribir exit o simplemente pulsar ctrl+d. Para desmontar las particiones, usaremos los siguientes comandos.&lt;/p>
&lt;h3 id="en-sistemas-bios-2">En sistemas BIOS&lt;/h3>
&lt;p>&lt;code>umount /mnt&lt;/code>
&lt;code>swapoff /dev/nvme0n1p1&lt;/code>&lt;/p>
&lt;h3 id="en-sistemas-uefi-2">En sistemas UEFI&lt;/h3>
&lt;p>&lt;code>umount /mnt/boot&lt;/code>
&lt;code>umount /mnt&lt;/code>
&lt;code>swapoff /dev/nvme0n1p2&lt;/code>&lt;/p>
&lt;p>Y, finalmente, para reiniciar:
&lt;code>reboot&lt;/code>
Si todo ha ido bien, nuestro sistema Arch está instalado, y accesible por ssh si se encuentra conectado por cable a la red. Podemos entrar con el siguiente comando:
&lt;code>ssh root@arch-vmware&lt;/code>
Sigamos, ¡falta mucho por hacer!&lt;/p>
&lt;h3 id="cómo-subir-el-volumen-para-speakup">Cómo subir el volumen para Speakup&lt;/h3>
&lt;p>La primera vez que iniciemos la copia instalada de Arch, el lector de pantalla se escuchará con un volumen muy bajo o directamente no se escuchará. Esto depende del equipo. La solución pasa por subir el volumen de los canales Master y PCM (si existe) al 100%, quitar sus silencios y guardar los ajustes. Ejecuta estos comandos:
&lt;code>amixer set Master unmute&lt;/code>
&lt;code>amixer set Master 100%&lt;/code>
&lt;code>amixer set PCM unmute&lt;/code>
&lt;code>amixer set PCM 100%&lt;/code>
&lt;code>alsactl store&lt;/code>
¡Importante! Este comando no se debe usar si estamos preparando una instalación en un disco extraíble. En su lugar, se debe copiar desde una instalación local el archivo &lt;code>/var/lib/alsa/asound.state&lt;/code>
¡Todo listo! Hemos instalado Arch Linux, le hemos dado sonido y un lector de pantalla. Ahora ya no necesitamos un servidor ssh para trabajar desde el exterior, podemos manipular la propia máquina desde sus interfaces locales.&lt;/p>
&lt;h2 id="siguientes-pasos">Siguientes pasos.&lt;/h2>
&lt;h3 id="actualizar-el-sistema">Actualizar el sistema&lt;/h3>
&lt;p>Lo primero que se debe hacer antes de instalar paquetes adicionales es tener completamente actualizado nuestro sistema. Vamos a actualizarlo, y a reiniciarlo:
&lt;code>pacman -Syu&lt;/code>
&lt;code>reboot&lt;/code>&lt;/p>
&lt;h3 id="instalación-de-reflector">Instalación de Reflector&lt;/h3>
&lt;p>Por defecto, Pacman descarga los paquetes desde una lista de sitios que lleva incorporada. Estos sitios, o réplicas, cambian con el tiempo y conviene actualizarlos. De esa forma, obtendremos los paquetes más deprisa, y probablemente desde una ubicación más cercana geográficamente. Para conseguirlo, instalaremos Reflector:
&lt;code>pacman -S --noconfirm reflector&lt;/code>
Ahora, lo configuramos para que arranque con el sistema y lo iniciamos.
&lt;code>systemctl enable reflector&lt;/code>
&lt;code>systemctl start reflector&lt;/code>&lt;/p>
&lt;h3 id="instalación-de-páginas-de-manual">Instalación de páginas de manual&lt;/h3>
&lt;p>El comando man puede ser muy útil a la hora de buscar la ayuda de un programa concreto y leer sus páginas de manual. Usa este comando para instalarlo:
&lt;code>pacman -S --noconfirm man-pages man-db&lt;/code>&lt;/p>
&lt;h3 id="instalación-de-vmware-tools-sólo-en-máquinas-virtuales">Instalación de VMWare Tools (sólo en máquinas virtuales)&lt;/h3>
&lt;p>Las herramientas de VMWare, o VMWare Tools, permiten a la máquina virtual integrarse mucho mejor con el equipo físico. Podemos utilizar desde carpetas compartidas, hasta arrastrar y soltar para transferir archivos.
Instalar las herramientas que VMWare Workstation trae por defecto ya no se recomienda. Todas las distribuciones de Linux incorporan sus propias herramientas. En este caso:
&lt;code>pacman -S --noconfirm open-vm-tools&lt;/code>
Con este paquete se instala un servicio que notifica a VMWare que ya tenemos las herramientas instaladas. Vamos a activarlo y a establecerlo al arranque del sistema:
&lt;code>systemctl start vmtoolsd&lt;/code>
&lt;code>systemctl enable vmtoolsd&lt;/code>
Tras hacer esto, podemos ir al menú vm en VMWare, ¡y ver que indica que las herramientas están instaladas! Pero… ¿Funciona todo? Todavía no, ya que no tenemos funciones de arrastrar y soltar o copiar y pegar, por ejemplo.
Para resolver el problema de arrastrar y soltar, habilitamos e iniciamos un servicio:
&lt;code>systemctl enable vmware-vmblock-fuse&lt;/code>
&lt;code>systemctl start vmware-vmblock-fuse&lt;/code>
Todo listo. Cuando tengamos un entorno de escritorio, podremos arrastrar y soltar o copiar y pegar archivos desde el equipo físico hacia la máquina, y viceversa.&lt;/p>
&lt;h3 id="instalación-de-yay">Instalación de Yay&lt;/h3>
&lt;p>Como ya se dijo más arriba, una de las características de Arch es la capacidad de compilar e instalar paquetes directamente desde el código fuente. Aunque los paquetes se pueden descargar y compilar manualmente desde el Arch User Repository, el proceso es largo y complicado, así que conviene automatizarlo. Yay es una herramienta muy similar a Pacman y admite sus mismos comandos, pero también trabaja sobre el Arch User Repository además de los repositorios oficiales. Además, no se debería ejecutar con el usuario root, necesita una cuenta estándar con privilegios de superusuario. Con yay podemos descargar, compilar e instalar paquetes, todo en un solo comando. Desgraciadamente, esta herramienta no se puede instalar desde pacman, y por eso le dedicamos un apartado entero en este tutorial.
Como a Arch no le gusta compilar paquetes siendo root, lo primero que haremos será crear un usuario administrador, pero sin tantos privilegios:
&lt;code>useradd -m usuario&lt;/code>
En el comando hemos indicado que el usuario se llamará usuario y tendrá un directorio personal para él. Ahora vamos a darle una contraseña:
&lt;code>passwd usuario&lt;/code>
Escribimos la contraseña 2 veces, y la cuenta de usuario ya está lista para su uso. Ahora, escribiremos el siguiente comando para que se puedan obtener más privilegios al ejecutar comandos con sudo:
&lt;code>echo &amp;quot;usuario ALL=(ALL:ALL) ALL&amp;quot; &amp;gt;&amp;gt; /etc/sudoers&lt;/code>
Ahora vamos a instalar el paquete wget para poder descargar los archivos de yay:
&lt;code>pacman -S --noconfirm wget&lt;/code>
Hecho esto, iniciamos sesión con la cuenta usuario. Esto se puede hacer de muchas maneras, por ejemplo con este comando:
&lt;code>su -l usuario&lt;/code>
Si trabajamos con la consola de la máquina virtual, también podemos salir e iniciar sesión desde allí. Lo mismo si trabajamos con ssh:
&lt;code>ssh usuario@arch-vmware&lt;/code>
Teniendo la sesión iniciada y estando en nuestro directorio personal, comenzamos a descargar y compilar paquetes.
Descargamos Yay:
&lt;code>wget https://aur.archlinux.org/cgit/aur.git/snapshot/yay.tar.gz&lt;/code>
Tras descargarlo, el primer paso es extraerlo:
&lt;code>tar -zxf yay.tar.gz&lt;/code>
A continuación, navegamos al directorio que se ha extraído:
&lt;code>cd yay&lt;/code>
Construimos el paquete y lo instalamos una vez compilado:
&lt;code>makepkg -si&lt;/code>
Yay ya está listo para la acción. Podemos instalar cualquier paquete desde el Arch User Repository con facilidad, siempre desde la cuenta estándar y sin llamar a sudo. Por ejemplo, el paquete needrestart, que ayuda a reiniciar sólo los servicios necesarios tras una actualización, en vez del equipo entero:
&lt;code>yay -S --noconfirm needrestart&lt;/code>
En procesadores Intel, Needrestart se puede complementar con la herramienta iucode-tool:
&lt;code>yay -S --asdeps --noconfirm iucode-tool&lt;/code>
Observa que el primer paquete se descarga desde el Arch User Repository, mientras que el segundo procede de los repositorios oficiales. El segundo se ha instalado como una dependencia opcional. Más adelante veremos qué significa eso.&lt;/p>
&lt;h3 id="activación-del-repositorio-multilib">Activación del repositorio multilib&lt;/h3>
&lt;p>El repositorio multilib, desactivado por defecto, contiene bibliotecas y aplicaciones de 32 bits, así como software que funciona sobre varias arquitecturas, como Wine o Steam.
Para activarlo, hay que editar el archivo /etc/pacman.conf con cualquier editor, como nano.
En él, las líneas de los repositorios multilib y multilib-testing vienen comentadas. Es decir, llevan un signo de número delante. Bastará con eliminarlo y guardar los cambios para activar el repositorio. Ten en cuenta que sólo se deben quitar los comentarios de dos líneas, y que no se recomienda habilitar los repositorios testing. Si ya de por sí el software suele ser inestable en Arch, los paquetes que proceden de los repositorios testing lo son aún más.&lt;/p>
&lt;h3 id="búsqueda-de-paquetes-con-pacman">Búsqueda de paquetes con Pacman&lt;/h3>
&lt;p>Para buscar paquetes con Pacman, ejecuta un comando similar a este: &lt;code>pacman -Ss palabra&lt;/code>&lt;/p>
&lt;h3 id="limpieza-de-la-caché-de-paquetes">Limpieza de la caché de paquetes&lt;/h3>
&lt;p>Después de instalar nuevos paquetes o actualizar el sistema, los paquetes comprimidos que se han descargado permanecen en el disco ocupando espacio. Para limpiar la caché y borrarlos, usa este comando:
&lt;code>pacman -Scc&lt;/code>
O, incluso mejor, hazlo con Yay: &lt;code>yay -Scc&lt;/code>&lt;/p>
&lt;h3 id="eliminación-de-paquetes-huérfanos">Eliminación de paquetes huérfanos&lt;/h3>
&lt;p>A veces, un paquete se actualiza y deja de necesitar otro del que antes dependía. Esa dependencia permanece en el sistema y no se desinstala por sí sola. Con el tiempo, esto puede llegar a ser un problema. Ejecuta el comando &lt;code>pacman -Qtdq | pacman -Rns -&lt;/code> para buscar y eliminar paquetes huérfanos.&lt;/p>
&lt;h3 id="instalación-del-escritorio-gnome">Instalación del escritorio gnome&lt;/h3>
&lt;p>Gnome es uno de los entornos de escritorio más populares para Linux, y uno de los que mejor integra la accesibilidad. En el caso de Arch, en los repositorios hay 2 grupos de paquetes que podemos instalar: gnome y gnome-extra.
Instalamos ambos grupos con este comando: &lt;code>pacman -S --noconfirm --needed gnome gnome-extra&lt;/code>
Para completar Gnome con todas las aplicaciones que no se encuentran en dichos grupos, podemos ejecutar un comando como este, que instalará todos los paquetes con la palabra gnome en su nombre:
&lt;code>pacman -S --needed $(pacman -Ssq gnome)&lt;/code>
Se instalarán todos los paquetes necesarios, incluyendo orca, el lector de pantalla de escritorio de Linux, y aplicaciones gráficas con diversas funciones (gestión de discos, correo electrónico, chat, e incluso algún juego). El proceso es largo, así que hay que tener paciencia.
Si tienes una línea Braille, añade tu usuario al grupo brlapi:
&lt;code>usermod -a -G brlapi usuario&lt;/code>
E instala el paquete que permite el inicio automático al detectar líneas conectadas por USB:
&lt;code>pacman -S --asdeps --noconfirm brltty-udev-generic&lt;/code>
Ponemos el teclado en español para las aplicaciones gráficas: &lt;code>localectl set-x11-keymap es,es&lt;/code>
¡Importante! Este comando no funcionará en imágenes fuera de línea, por ejemplo al crear una unidad extraíble. En su lugar, copia desde una instalación local de Arch el archivo &lt;code>/etc/X11/xorg.conf.d/00-keyboard.conf&lt;/code>
Por último, ponemos al arranque el servicio gdm, que se encarga de gestionar el escritorio, mostrar la pantalla de inicio de sesión y otras tareas de vital importancia:
&lt;code>systemctl set-default graphical&lt;/code>
&lt;code>systemctl enable gdm&lt;/code>
También activamos un servicio que montará automáticamente dispositivos extraíbles: &lt;code>systemctl enable udisks2&lt;/code>
Y reiniciamos el equipo a modo de precaución:
&lt;code>reboot&lt;/code>
Al arrancar el servicio gdm, desaparece la consola de la máquina virtual. Espeakup deja de hablar, y se muestra ante nosotros la pantalla de inicio de sesión. Ahora, si queremos un lector de pantalla, se debe activar orca pulsando windows+alt+s.
Pulsando ctrl+alt+tab, podemos navegar entre los distintos paneles que componen el escritorio. En este caso tenemos el de bloqueo, la barra superior y el de iniciar sesión. Iremos a este último, y entraremos con la cuenta de usuario estándar que creamos al principio. Los paneles cambiarán, pero la forma de navegar es la misma.
Al escribir la contraseña y pulsar enter, Orca dejará de hablar. Lo activamos nuevamente pulsando windows+alt+s. El entorno de escritorio gnome estará listo para su uso. ¡Disfruta!&lt;/p>
&lt;h3 id="instalación-del-escritorio-mate">Instalación del escritorio Mate&lt;/h3>
&lt;p>Mate es un escritorio basado en el antiguo Gnome 2.x. Destaca por su ligereza y poco consumo de recursos, su accesibilidad con Orca y la familiaridad del entorno, que puede recordar más a Windows. Al contrario que Gnome, Mate sí tiene un escritorio donde se pueden depositar accesos directos y archivos. El acceso a las aplicaciones se realiza mediante la barra de menú superior, a la que se llega con alt+f1.
Mate comparte muchos paquetes con Gnome, y algunas de sus funciones sólo se activan cuando se usa GDM como el administrador gráfico. Podemos instalarlo con estos comandos. Si Gnome ya está instalado, el espacio en disco no aumentará mucho:
&lt;code>pacman --noconfirm --needed -S mate mate-extra&lt;/code>
&lt;code>pacman --needed --noconfirm -S $(pacman -Ssq mate-)&lt;/code>
En la ventana de inicio de sesión, si navegamos con el tabulador justo después de escribir la contraseña, encontraremos un menú para elegir el escritorio predeterminado. Aparecerán todos los escritorios que se encuentren instalados, incluyendo diversas variantes de Gnome y Mate.&lt;/p>
&lt;h3 id="dependencias-opcionales">Dependencias opcionales&lt;/h3>
&lt;p>En Arch, muchos paquetes tienen dependencias opcionales. Esto significa que funcionan sin ellas, pero al instalarlas se obtiene una funcionalidad extra. Aquí hay algunas que puedes usar con Gnome para extenderlo aún más.
Para instalar una dependencia opcional, se recomienda indicar a Pacman que se trata de una dependencia, y no de una instalación explícita. De esa forma, al desinstalar el paquete que la necesita, también se borrará. Usa un comando como este para conseguirlo:
&lt;code>pacman -S --asdeps --noconfirm paquete1 paquete2 paquete3&lt;/code>
El paquete Harfbuzz ofrece esta dependencia con utilidades: harfbuzz-utils
Para la app Juegos, se pueden instalar todos estos emuladores de consolas antiguas: libretro-beetle-pce-fast libretro-beetle-psx libretro-blastem libretro-citra libretro-flycast libretro-gambatte libretro-mgba libretro-nestopia libretro-parallel-n64 libretro-picodrive gamemode
Estos paquetes extenderán la app Herramientas de red: nmap bind net-tools
Con este otro, se puede jugar al ajedrez contra el ordenador: gnuchess
Este paquete aparece como opcional al instalar Code assistance: jedi-language-server
Si usas el programa de correo Evolution, estos son sus paquetes opcionales, empleados para filtrar spam: highlight evolution-spamassassin evolution-bogofilter
Este paquete permite al escritorio gestionar perfiles de energía: power-profiles-daemon. Habilita el servicio power-profiles-daemon para que funcione.
Y este otro, configurar las impresoras: system-config-printer
La aplicación Cajas usa el emulador Qemu para ejecutar máquinas virtuales. Estos paquetes contienen todas sus arquitecturas: qemu-user-static qemu-user qemu-tests qemu-system-xtensa qemu-system-tricore qemu-system-sparc qemu-system-sh4 qemu-system-s390x qemu-system-rx qemu-system-riscv qemu-system-ppc qemu-system-or1k qemu-system-nios2 qemu-system-mips qemu-system-microblaze qemu-system-m68k qemu-system-hppa qemu-system-cris qemu-system-avr qemu-system-arm qemu-system-alpha qemu-system-aarch64 qemu-docs qemu-chardev-baum qemu-block-iscsi qemu-block-gluster qemu-emulators-full qemu-user-static-binfmt qemu-full
Si usas el gestor de archivadores, estos paquetes le darán compatibilidad con todos los formatos soportados: squashfs-tools lrzip unace unrar p7zip
Brasero permite grabar contenido en cd y dvd. Con estos paquetes opcionales, además, puede personalizar más aspectos de la grabación y procesar contenido multimedia: dvdauthor vcdimager libisofs libburn
Esta extensión añade el menú &amp;ldquo;Enviar a&amp;rdquo; al explorador de archivos Nautilus: nautilus-sendto
Gedit es más que un bloc de notas, pero con sus plugins ofrece todavía más funcionalidades: gedit-plugins
Este applet mostrará información de la red: network-manager-applet
El soporte NTFS viene integrado en el kernel de Linux desde la versión 5.15, pero algunas aplicaciones siguen necesitando el paquete antiguo para usar sus utilidades: ntfs-3g
Con este paquete, el applet de sensores mostrará la temperatura del disco duro: hddtemp
Dejando de lado el escritorio, la consola bash puede beneficiarse mucho del autocompletado en ciertas situaciones, incluida la búsqueda e instalación de paquetes. Instala bash-completion para conseguirlo.
El motor de sonido Pipewire puede extenderse con este paquete: pipewire-audio
Y la herramienta Reflector dispondrá de más mecanismos para descargar la lista de réplicas si se instala el paquete rsync.
Con el paquete python-pyudev, la librería libwacom soportará más tipos de hardware.
Los paquetes udftools, exfatprogs, dosfstools y xfsprogs extienden la capacidad del servicio udisks2 para montar automáticamente sistemas de archivos.&lt;/p>
&lt;h3 id="ejecución-de-aplicaciones-de-windows">Ejecución de aplicaciones de Windows&lt;/h3>
&lt;p>Los archivos .exe y .dll que usamos en Windows no tienen nada que hacer en Linux, a menos que instalemos algo que permita ejecutarlos. Wine, del que ya hablamos al explicar cómo habilitar multilib, es un emulador que permite que los programas de Windows funcionen, siempre que no sean demasiado avanzados. Ten en cuenta que las aplicaciones que se ejecutan dentro de Wine no son accesibles, incluso si logras instalar NVDA:
&lt;code>pacman -S --noconfirm wine&lt;/code>
Por defecto, las aplicaciones para Windows no tendrán sonido, y más si son de 32 bits. Es importante habilitarlo si vamos a trabajar a ciegas. Para ello, instala todas las dependencias opcionales:
&lt;code>pacman -S --noconfirm --needed --asdeps lib32-giflib lib32-mpg123 lib32-openal lib32-v4l-utils lib32-libpulse lib32-alsa-plugins lib32-alsa-lib lib32-libxcomposite lib32-libxinerama lib32-opencl-icd-loader lib32-libxslt lib32-gst-plugins-base-libs vkd3d lib32-vkd3d dosbox lib32-gst-plugins-base lib32-gst-plugins-good lib32-libcups lib32-pcsclite pcsclite unixodbc wine-gecko wine-mono&lt;/code>&lt;/p>
&lt;h3 id="otras-aplicaciones-conocidas">Otras aplicaciones conocidas&lt;/h3>
&lt;p>A continuación se enumeran algunas aplicaciones de ofimática e Internet que pueden resultar conocidas en Windows y que, de hecho, llevan toda la vida en Linux.&lt;/p>
&lt;ul>
&lt;li>LibreOffice: se puede obtener mediante el paquete libreoffice-fresh, o libreoffice-still para la versión de soporte extendido, más antigua. Para que su interfaz esté en español, instala libreoffice-fresh-es o libreoffice-still-es, según corresponda.&lt;/li>
&lt;li>Firefox y Thunderbird: se pueden instalar escribiendo sus nombres en Pacman, directamente. Para traducir su interfaz, no obstante, también se deben instalar firefox-i18n-es-es y thunderbird-i18n-es-es. El grupo firefox-addons contiene algunas extensiones populares.&lt;/li>
&lt;li>Chrome: Google Chrome se encuentra disponible en el Arch User Repository con el nombre google-chrome. Para instalar un paquete más libre y procedente de los repositorios oficiales, se puede descargar chromium desde Pacman. Por defecto, el motor Chromium no se comunica con las tecnologías de asistencia. Para cambiar ese comportamiento, se debe agregar la variable de entorno ACCESSIBILITY_ENABLED y darle el valor 1. Ejecuta este comando en la cuenta de usuario estándar (no root) y reinicia el equipo: &lt;code>echo export ACCESSIBILITY_ENABLED=1 &amp;gt;&amp;gt; ~/.xprofile&lt;/code>. Ten en cuenta que Chromium utiliza su propia clave API para acceder a los servicios de Google y podría sufrir restricciones puntuales. Ante la duda, usa Chrome.&lt;/li>
&lt;li>VLC: este reproductor multimedia también se encuentra disponible en los repositorios oficiales de Arch. El paquete opcional lua-socket se puede instalar para activar su servidor http.&lt;/li>
&lt;/ul>
&lt;h3 id="controladores">Controladores&lt;/h3>
&lt;p>Arch incluye controladores para una amplia gama de dispositivos. El paquete linux-firmware contiene los más comunes y de código abierto. Ya lo instalamos al principio, junto con sof-firmware, que contiene controladores para tarjetas de sonido. Si te aventuras a instalarlo en un equipo real y algún dispositivo no funciona como debería, prueba estos paquetes:&lt;/p>
&lt;ul>
&lt;li>linux-firmware-marvell&lt;/li>
&lt;li>linux-firmware-qcom&lt;/li>
&lt;li>linux-firmware-bnx2x&lt;/li>
&lt;li>linux-firmware-mellanox&lt;/li>
&lt;li>linux-firmware-qlogic&lt;/li>
&lt;li>linux-firmware-liquidio&lt;/li>
&lt;li>linux-firmware-nfp&lt;/li>
&lt;li>b43-fwcutter&lt;/li>
&lt;li>alsa-firmware&lt;/li>
&lt;li>mkinitcpio-firmware (se instala con yay, no forma parte de los repositorios oficiales). Instala todos los módulos firmware, lo que evita errores y advertencias al reconstruir el kernel.&lt;/li>
&lt;/ul>
&lt;p>Una vez instalados estos paquetes, conviene recompilar los kernels disponibles con un comando como este, y reiniciar el equipo: &lt;code>mkinitcpio -P&lt;/code>
Por su parte, el servidor xorg puede funcionar mejor si se instalan controladores para tarjetas gráficas específicas. El grupo xorg-drivers contiene casi todos, con algunas excepciones.
Las tarjetas gráficas NVidia necesitan instalar módulos en el kernel. Se puede descargar el controlador propietario más reciente instalando el paquete nvidia para el kernel nativo de Arch, el paquete nvidia-lts para el kernel lts, o el paquete nvidia-dkms para todos en general. En este último caso, deben estar instaladas las cabeceras del kernel o kernels para el que se compilará el módulo. Por ejemplo, linux-zen-headers. El paquete nvidia-settings ofrece una aplicación de configuración para la tarjeta. Se deben habilitar con systemd los servicios nvidia-persistenced, nvidia-powerd, nvidia-hibernate, nvidia-resume y nvidia-suspend para gestionarla de forma óptima.
Las tarjetas gráficas AMD pueden funcionar mejor con el paquete amdvlk. Tiene una versión para aplicaciones de 32 bits, llamada lib32-amdvlk.
Las tarjetas gráficas Intel ya están soportadas al instalar xorg-drivers, pero otras aplicaciones pueden beneficiarse si se instalan estos paquetes: &lt;code>libva-intel-driver intel-media-driver vulkan-intel lib32-libva-mesa-driver libva-mesa-driver libvdpau-va-gl mesa-vdpau lib32-libva-intel-driver lib32-vulkan-intel&lt;/code>
Los escáneres pueden verse complementados con el paquete sane-gt68xx-firmware, que incluye controladores para más modelos, y el paquete sane-airscan, que permite usar un escáner inalámbrico que no necesita controladores.&lt;/p>
&lt;h3 id="otros-núcleos">Otros núcleos&lt;/h3>
&lt;p>Hasta ahora, hemos trabajado con un único kernel, disponible en el paquete linux. Este kernel es genérico, adecuado para cualquier tarea que queramos hacer con el sistema operativo. Sin embargo, en los repositorios oficiales hay otros con distintas características. Puedes instalar varios a la vez, pero es posible que necesites otro esquema de particiones distinto al propuesto en este tutorial para que te quepan todos:&lt;/p>
&lt;ul>
&lt;li>linux-lts: el paquete linux-lts ofrece un núcleo con soporte extendido. Va un poco retrasado respecto al kernel normal, pero da más garantías de estabilidad.&lt;/li>
&lt;li>linux-zen: el kernel zen viene optimizado para equipos de escritorio. Mejora el desempeño de los gráficos y reduce la latencia del audio.&lt;/li>
&lt;li>linux-hardened: instala este núcleo si lo que quieres es seguridad. Viene optimizado para mitigar vulnerabilidades. En consecuencia, puede hacer que el sistema vaya algo más despacio, y algunas aplicaciones no funcionan con él.&lt;/li>
&lt;li>linux-rt: núcleo optimizado para trabajar con eventos en tiempo real.&lt;/li>
&lt;li>linux-rt-lts: versión de soporte extendido del núcleo anterior.&lt;/li>
&lt;/ul>
&lt;p>Tras instalar cualquiera de estos núcleos, regenera el archivo de configuración de Grub: &lt;code>grub-mkconfig -o /boot/grub/grub.cfg&lt;/code>
Por defecto, el kernel zen se situará arriba del todo, convirtiéndose en el primero en arrancar.&lt;/p>
&lt;h3 id="gestión-de-impresoras">Gestión de impresoras&lt;/h3>
&lt;p>En Linux, el paquete cups es el responsable de comunicarse con las impresoras conectadas. Con la ayuda de cups-browsed, podrá buscar impresoras de red. Instalará unos servicios, que deberemos activar:
&lt;code>systemctl enable cups cups-browsed&lt;/code>
&lt;code>systemctl start cups cups-browsed&lt;/code>
Cups acepta conexiones desde el navegador en http://localhost:631. Desde allí se pueden gestionar las impresoras existentes, pero Gnome y Mate también ofrecen sus propias aplicaciones para ello.
Con el paquete cups-pdf, se instala una impresora virtual capaz de imprimir en archivos PDF. Tan pronto como lo instales, usa tu interfaz preferida de configuración de impresoras para agregarla, ya que no aparecerá por sí sola.
En ordenadores reales, se pueden instalar controladores que actuarán de intermediarios entre Cups y diversos modelos de impresoras. Vienen en estos paquetes: &lt;code>foomatic-db foomatic-db-engine foomatic-db-ppds foomatic-db-nonfree-ppds foomatic-db-gutenprint-ppds gutenprint&lt;/code>
Aunque se cubre una amplia gama de fabricantes y modelos, no funcionarán todos. Pueden hacer falta paquetes adicionales, tanto de los repositorios oficiales como del AUR. Visita &lt;a href="https://wiki.archlinux.org/title/CUPS/Printer-specific_problems">esta página en la wiki de Arch Linux&lt;/a> para encontrar el tuyo.&lt;/p>
&lt;h3 id="bluetooth">Bluetooth&lt;/h3>
&lt;p>Teniendo instalados todos los paquetes que se han visto a lo largo de este tutorial, el bluetooth se puede usar activando e iniciando este servicio:
&lt;code>systemctl enable bluetooth&lt;/code>
&lt;code>systemctl start bluetooth&lt;/code>
Para agregar impresoras Bluetooth, además, se debe instalar el paquete bluez-cups.&lt;/p>
&lt;h3 id="redes-wi-fi">Redes wi-fi&lt;/h3>
&lt;p>¿Has instalado Arch en un equipo físico conectado por cable, pero lo tuyo son las redes inalámbricas? Habilita e inicia este servicio:
&lt;code>systemctl enable wpa_supplicant&lt;/code>
&lt;code>systemctl start wpa_supplicant&lt;/code>
Deberías poder configurar tu red wi-fi desde la barra superior de Gnome. Instala el paquete wireless-regdb para cumplir con la legislación vigente de tu país relativa a canales y potencia de transmisión. Se reconstruirán todos los núcleos instalados, por lo que tendrás que reiniciar el equipo.&lt;/p>
&lt;h3 id="otros-administradores-gráficos">Otros administradores gráficos&lt;/h3>
&lt;p>Existen varios escritorios más que no hemos mencionado en este tutorial porque carecen de accesibilidad con lector de pantalla, o la que tienen es tan pobre que degrada demasiado la experiencia. Con los administradores gráficos sucede lo mismo. Hemos hablado de gdm, el que usan Gnome y Mate, pero no es el único. Lightdm puede ser una buena alternativa en sistemas con bajos recursos. Para instalarlo:
&lt;code>pacman -S --noconfirm lightdm lightdm-gtk-greeter&lt;/code>
Antes de habilitarlo, se debe deshabilitar gdm, ya que sólo puede haber un administrador gráfico en ejecución:
&lt;code>systemctl disable gdm&lt;/code>
&lt;code>systemctl enable lightdm&lt;/code>
Para indicar a LightDM que use Orca, añadiremos una línea al archivo de configuración de la interfaz:
&lt;code>echo reader=orca &amp;gt;&amp;gt; /etc/lightdm/lightdm-gtk-greeter.conf&lt;/code>
Al reiniciar el sistema, LightDM aparecerá en pantalla. Se puede activar el lector de pantalla Orca pulsando la tecla f4. Pulsando f10 se accede a la barra de menú, desde donde se puede seleccionar qué escritorio arrancará. La tecla f10 accederá a la barra de menú en todas las aplicaciones que la tengan.&lt;/p>
&lt;h3 id="descubrimiento-de-dispositivos-en-la-red-local">Descubrimiento de dispositivos en la red local&lt;/h3>
&lt;p>Algunos dispositivos y programas, como impresoras, televisores o servidores de archivos, facilitan información a la red local sobre cómo conectarse e interactuar con ellos. Para ello, se apoyan en protocolos como zeroconf y mdns. A pesar de que ya se han instalado utilidades que permiten explorar la red en busca de estos dispositivos, se debe habilitar e iniciar un servicio:
&lt;code>systemctl enable avahi-daemon&lt;/code>
&lt;code>systemctl start avahi-daemon&lt;/code>
A continuación, para resolver direcciones que acaben en &lt;code>.local&lt;/code>, se puede instalar este paquete:
&lt;code>pacman -S --noconfirm nss-mdns&lt;/code>
Y finalmente, usamos nano para editar el archivo /etc/nsswitch.conf. La línea que empieza por &amp;ldquo;hosts&amp;rdquo; debe quedar así:
&lt;code>hosts: mymachines mdns_minimal [NOTFOUND=return] resolve [!UNAVAIL=return] files myhostname dns&lt;/code>
Otro servicio que mejora la compatibilidad y el descubrimiento con equipos con Windows es wsdd. Se puede instalar con el siguiente paquete:
&lt;code>yay -S wsdd2&lt;/code>
Después, es suficiente con habilitar este servicio. Seguirá los mismos ajustes de configuración de Samba, si los hay:
&lt;code>systemctl enable wsdd2&lt;/code>&lt;/p>
&lt;h2 id="conclusiones">Conclusiones&lt;/h2>
&lt;p>En este tutorial hemos instalado Arch Linux, una distribución pequeña, simple y ligera, donde cada usuario elige lo que quiere y obtiene únicamente lo necesario para conseguir su objetivo. Hemos conocido Linux mejor por dentro, evitando la presencia de automatizaciones y herramientas que nos abstraen del proceso en otras distribuciones. Conociendo el funcionamiento de los programas en Arch Linux, se puede saber cómo funcionan por debajo ciertos aspectos en distribuciones como Ubuntu, Debian y Fedora, y también echar un vistazo a lo que está por llegar, ya que siempre se reciben las últimas versiones estables de los programas poco después de publicarse. Hemos aprendido a construir un sistema con una base de consola que no tiene uno, sino tantos escritorios como queramos instalarle, unos más accesibles que otros, y varios lectores de pantalla que coexisten en un mismo sistema.
A pesar de todos los temas abarcados, este tutorial sólo araña la superficie. Los paquetes que se han instalado, así como sus dependencias, tienen montones de funciones extra que se pueden explorar, y existen muchos más paquetes y programas que no se han documentado aquí.
Arch evoluciona rápidamente, por lo que no sería de extrañar que este texto se quede obsoleto pronto. Lo que acabas de leer no se parece nada a la primera versión de este tutorial, escrita en el año 2015. En aquella época, la instalación era más compleja que ahora, y el resultado menos accesible. Deshabilitar el servicio espeakup era obligatorio para usar Orca, ya que entraban en conflicto compitiendo por el dispositivo de audio, por ejemplo.
Ahora ya sabes cómo instalar Arch en una máquina virtual, pero a lo largo de las distintas secciones se han dado trucos para crear un pen drive con un sistema para llevar, o realizar la instalación en un ordenador real. ¿Te animas a hacerlo? ¿Ya lo has hecho? No dudes en compartir tu experiencia, y contarnos qué ventajas y desventajas observas respecto a otros sistemas.
¡Gracias por leer!&lt;/p>
&lt;h2 id="fuentes-de-información">Fuentes de información&lt;/h2>
&lt;p>Este tutorial no habría sido posible sin consultar las siguientes fuentes:&lt;/p>
&lt;ol>
&lt;li>La &lt;a href="https://wiki.archlinux.org/title/Installation_guide">guía de instalación de Arch Linux&lt;/a>.&lt;/li>
&lt;li>La &lt;a href="https://wiki.archlinux.org">wiki de Arch&lt;/a>, en la que he leído tantas páginas distintas que no sabría enlazar todas.&lt;/li>
&lt;li>&lt;a href="https://gist.github.com/MaxLaumeister/f93717e91c8bd9d435a5">Tono de Grub de Mario Bross&lt;/a>.&lt;/li>
&lt;li>&lt;a href="https://en.wikipedia.org/wiki/Chromium_(web_browser)#Differences_from_Google_Chrome">Diferencias entre Chromium y Google Chrome&lt;/a>.&lt;/li>
&lt;li>&lt;a href="https://wiki.gnome.org/Projects/Orca/Chromium">Uso de Orca con Chromium&lt;/a>.&lt;/li>
&lt;li>Páginas de manual, la información que devuelven muchos comandos al pasar &amp;ndash;help como argumento, y los comentarios que se encuentran en los archivos de configuración.&lt;/li>
&lt;li>Varios años experimentando de forma ininterrumpida.&lt;/li>
&lt;/ol>
&lt;h2 id="anexo-creación-de-una-imagen-lista-para-grabar-y-arrancar">Anexo: creación de una imagen lista para grabar y arrancar&lt;/h2>
&lt;p>A lo largo de este tutorial se han dado consejos útiles para preparar una unidad extraíble. El procedimiento es muy similar al de instalación en local, pero teniendo en cuenta que systemd y algunos comandos no funcionan, y que no se debe iniciar ningún servicio. En este capítulo explicaremos todo aquello que no se ha contado antes relacionado con la creación de imágenes listas para grabar, llevar a cualquier parte y arrancar.&lt;/p>
&lt;h3 id="creación-del-archivo-de-imagen">Creación del archivo de imagen&lt;/h3>
&lt;p>Para crear un archivo de imagen totalmente vacío, se puede hacer uso de la utilidad dd. Con ella, creamos un archivo del tamaño que queramos y lo llenamos de ceros. Por ejemplo, este comando preparará un archivo cuyo tamaño es muy similar al de un pen drive de 32 GB:
&lt;code>dd if=/dev/zero of=archlinux.img bs=4M count=7629 status=progress&lt;/code>
Tan pronto como dd termine, podremos particionarlo como se vio más arriba. Podemos omitir la partición swap. Si el sistema llegara a necesitarla, el rendimiento se reduciría drásticamente:
&lt;code>gdisk archlinux.img&lt;/code>
Una vez escribimos la tabla de particiones, podemos montar la imagen como si fuera un disco real:
&lt;code>losetup -P /dev/loop0 archlinux.img&lt;/code>
En este caso, loop0 es el dispositivo donde irá montada la imagen. Si loop0 no está disponible, podemos recurrir a loop1, y así sucesivamente. Las particiones se montarán como loop0p1, loop0p2, etc.
Para desmontar la imagen, se debe ejecutar un comando como este después de desmontar todos los sistemas de archivos:
&lt;code>losetup -d /dev/loop0&lt;/code>&lt;/p>
&lt;h3 id="preparación-para-la-nube">Preparación para la nube&lt;/h3>
&lt;p>Nunca sabemos dónde puede acabar la imagen que hemos creado. Prepararla para que se ejecute en cualquier parte puede ser buena idea, incluso si se configura para su uso en un proveedor de nube. Para ello, instalaremos el paquete cloud-init con alguna de sus dependencias extra:
&lt;code>pacman -S --noconfirm --needed cloud-init python-passlib&lt;/code>
Y habilitaremos los dos servicios que ofrece, sin iniciarlos:
&lt;code>systemctl enable cloud-init cloud-init-local&lt;/code>
El paquete cloud-init tiene una dependencia opcional, cloud-guest-utils:
&lt;code>pacman -S --noconfirm --asdeps --needed cloud-guest-utils&lt;/code>
Esta dependencia es de especial relevancia, ya que una de sus utilidades permite aumentar el tamaño de la partición indicada hasta llenar todo el espacio que pueda en el disco. Si grabamos la imagen en una unidad cuyo tamaño es superior al disco grabado, podremos disponer del espacio sobrante con un par de comandos. El primero es growpart, que aplicaremos a la partición formateada en ext4. Imaginemos que es la segunda del disco:
&lt;code>growpart /dev/nvme0n1 2&lt;/code>
Y luego, resize2fs adapta el sistema de archivos al nuevo tamaño:
&lt;code>resize2fs /dev/nvme0n1p2&lt;/code>
Ten en cuenta que cloud-init generará una nueva clave para OpenSSH en el servidor la primera vez que se inicie, por lo que será necesario borrar la anterior del archivo known_hosts en los clientes. Si vas a distribuir tu imagen personalizada, instala y activa cloud-init.&lt;/p>
&lt;h3 id="instalación-de-arch-linux-desde-una-copia-en-ejecución">Instalación de Arch Linux desde una copia en ejecución&lt;/h3>
&lt;p>En este tutorial hemos usado pacstrap, arch-chroot y mkfstab, entre otras utilidades. Todas ellas se pueden obtener instalando el paquete arch-install-scripts. De hecho, es indispensable para realizar la instalación en la imagen:
&lt;code>pacman -S --noconfirm --needed arch-install-scripts&lt;/code>
Si usas una copia instalada de Arch para preparar otro disco y no arrancas desde la imagen iso, recuerda desmontar tu propia partición swap antes de ejecutar el comando genfstab.&lt;/p>
&lt;h3 id="actualización-de-la-caché-de-packagekit">Actualización de la caché de PackageKit&lt;/h3>
&lt;p>Al instalar paquetes, podemos ver que uno de los hooks falla porque systemd no se encuentra en ejecución en el entorno al que hemos entrado con chroot. Se puede ejecutar el siguiente comando para mantener la caché al día:
&lt;code>/usr/lib/pk-offline-update&lt;/code>&lt;/p>
&lt;h3 id="preparación-de-la-imagen-para-su-distribución">Preparación de la imagen para su distribución&lt;/h3>
&lt;p>A pesar de las velocidades actuales de conexión, 32 GB son muchos GB, y la mitad, también. Debemos preparar nuestra imagen para que ocupe el mínimo espacio posible al comprimirla, y por supuesto, comprimirla al acabar. Para ello, podemos hacer uso de las utilidades e4defrag y sfill. Los sistemas de archivos deben estar montados. En modo chroot, limpia las cachés de pacman y yay de todas las cuentas de usuario. El comando &lt;code>yay -scc&lt;/code> desde la cuenta &amp;ldquo;usuario&amp;rdquo; debería ser suficiente si has seguido los pasos de este tutorial.
La utilidad e4defrag ya viene instalada en el sistema. Podemos aplicarla sobre la partición ext4 de la imagen y, regularmente, sobre nuestro propio disco duro:
&lt;code>e4defrag /dev/loop0p2&lt;/code>
En cuanto a sfill, se instala con el paquete secure-delete, disponible únicamente en el AUR. Este paquete contiene utilidades para borrar archivos sin dejar rastro, grabando encima información aleatoria. Lo que nos interesa no es grabar datos aleatorios, sino ceros. De esa forma, se eliminarán los restos de ficheros ya borrados y quedará algo que ocupará mucho menos espacio al comprimirse. Para instalar secure-delete, desde una cuenta que no sea root, hacemos:
&lt;code>yay -S --noconfirm secure-delete&lt;/code>
Ahora, le diremos a sfill que grabe ceros, haciendo una única pasada:
&lt;code>sfill -f -z -l -l /mnt&lt;/code>
Y también en la partición de arranque:
&lt;code>sfill -f -z -l -l /mnt/boot&lt;/code>
Teniendo la imagen completamente desmontada, ya podemos comprimirla: &lt;code>xz -9 --extreme -T 0 archlinux.img&lt;/code>
El archivo resultante, aunque es grande, resulta mucho más manejable. Y el ratio de compresión no dejará indiferente a nadie.&lt;/p></content:encoded></item></channel></rss>