You are on page 1of 194

Fedora 13

Guía de seguridad
Una guía para la seguridad en Fedora Linux

Johnray Fuller

John Ha

David O'Brien

Scott Radvan

Eric Christensen

Adam Ligas
Guía de seguridad

Fedora 13 Guía de seguridad


Una guía para la seguridad en Fedora Linux
Edición 13.0

Autor Johnray Fuller jrfuller@redhat.com


Autor John Ha jha@redhat.com
Autor David O'Brien daobrien@redhat.com
Autor Scott Radvan sradvan@redhat.com
Autor Eric Christensen sparks@fedoraproject.org
Autor Adam Ligas adam@physco.com

Copyright © 2010 Red Hat, Inc.

The text of and illustrations in this document are licensed by Red Hat under a Creative Commons
Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available
at http://creativecommons.org/licenses/by-sa/3.0/. The original authors of this document, and Red Hat,
designate the Fedora Project as the "Attribution Party" for purposes of CC-BY-SA. In accordance with
CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the
original version.

Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert,
Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.

Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity
Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.

For guidelines on the permitted uses of the Fedora trademarks, refer to https://fedoraproject.org/wiki/
Legal:Trademark_guidelines.

Linux® is the registered trademark of Linus Torvalds in the United States and other countries.

Java® is a registered trademark of Oracle and/or its affiliates.

XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States
and/or other countries.

All other trademarks are the property of their respective owners.

La Guía de Seguridad en Fedora está diseñada para asistir a usuarios de Fedora en el proceso de
aprendizaje y prácticas de seguridad en estaciones de trabajo y servidores, para poder así evitar
intrusiones locales y remotas, explotaciones, y actividades maliciosas. Enfocada en Fedora Linux
pero detallando conceptos y técnicas validas para todos los sistemas Linux. La Guía de Seguridad
en Fedora detalla la planificación y describe las herramientas involucradas en la creación de un
entorno de computación seguro, para centros de datos, estaciones de trabajo, o el hogar. Con un
conocimiento administrativo apropiado, vigilancia, y herramientas, los sistemas ejecutando Linux
pueden ser funcionales y al mismo tiempo seguros, frente a los métodos de intrusión y explotación
más comunes.
Prefacio vii
1. Convenciones del Documento ........................................................................................ vii
1.1. Convenciones Tipográficas .................................................................................. vii
1.2. Convenciones del documento ............................................................................. viii
1.3. Notas y Advertencias ........................................................................................... ix
2. ¡Necesitamos sus comentarios! ....................................................................................... ix

1. Resumen acerca de la seguridad 1


1.1. Introducción a la Seguridad .......................................................................................... 1
1.1.1. ¿Qué es la seguridad en computación? .............................................................. 1
1.1.2. SELinux ............................................................................................................ 4
1.1.3. Controles de seguridad ...................................................................................... 4
1.1.4. Conclusión ........................................................................................................ 5
1.2. Evaluación de debilidades ............................................................................................ 5
1.2.1. Pensando como el enemigo ............................................................................... 6
1.2.2. Definiendo evaluación y pruebas ........................................................................ 6
1.2.3. Herramientas de evaluación ............................................................................... 8
1.3. Atacantes y vulnerabilidades ....................................................................................... 11
1.3.1. Una breve reseña acerca de los hackers .......................................................... 11
1.3.2. Amenazas a la seguridad de la red .................................................................. 12
1.3.3. Amenazas a la seguridad del servidor .............................................................. 13
1.3.4. Amenazas a las estaciones de trabajo y seguridad en equipos hogareños ........... 15
1.4. Ataques y debilidades comunes .................................................................................. 15
1.5. Actualizaciones de seguridad ...................................................................................... 19
1.5.1. Actualización de paquetes ................................................................................ 19
1.5.2. Verificación de paquetes firmados .................................................................... 19
1.5.3. Instalación de paquetes firmados ..................................................................... 20
1.5.4. Aplicación de los cambios ................................................................................ 21

2. Asegurando su Red 25
2.1. Seguridad de la estación de trabajo ............................................................................ 25
2.1.1. Evaluación de la seguridad de la estación de trabajo ......................................... 25
2.1.2. Seguridad en el BIOS y en el gestor de arranque .............................................. 25
2.1.3. Seguridad de contraseñas ................................................................................ 28
2.1.4. Controles administrativos ................................................................................. 33
2.1.5. Servicios de red disponibles ............................................................................. 40
2.1.6. Cortafuegos personales ................................................................................... 44
2.1.7. Herramientas de comunicación de seguridad mejorada ...................................... 44
2.2. Seguridad del servidor ................................................................................................ 45
2.2.1. Asegurando los servicios con encapsuladores TCP y xinetd ............................... 45
2.2.2. Asegurando Portmap ....................................................................................... 49
2.2.3. Asegurando NIS .............................................................................................. 49
2.2.4. Asegurando NFS ............................................................................................. 52
2.2.5. Asegurando el servidor HTTP Apache .............................................................. 53
2.2.6. Asegurando FTP ............................................................................................. 54
2.2.7. Asegurando Sendmail ...................................................................................... 57
2.2.8. Verificar qué puertos están abiertos .................................................................. 58
2.3. Identificación única (SSO, por las iniciales en inglés de Single Sign-on) ......................... 59
2.3.1. Introducción ..................................................................................................... 59
2.3.2. Empezar a utilizar su nueva tarjeta inteligente ................................................... 61
2.3.3. Como funciona la inscripción de las tarjetas inteligentes. .................................... 62
2.3.4. Cómo funciona el ingreso con tarjeta inteligente ................................................ 63

iii
Guía de seguridad

2.3.5. Configurar Firefox para la utilización de Kerberos como SSO ............................. 64


2.4. Módulos de autenticación conectables (PAM, por las iniciales en inglés de Pluggable
Authentication Modules) .................................................................................................... 66
2.4.1. Ventajas de PAM ............................................................................................. 67
2.4.2. Archivos de configuración de PAM .................................................................... 67
2.4.3. Formato del archivo de configuración de PAM ................................................... 67
2.4.4. Ejemplos de archivos de configuración de PAM ................................................. 70
2.4.5. Creación de los módulos PAM ......................................................................... 71
2.4.6. PAM y el cacheo de la credencial administrativa ................................................ 72
2.4.7. PAM y la propiedad de los dispositivos ............................................................. 73
2.4.8. Recursos adicionales ....................................................................................... 75
2.5. Encapsuladores TCP y xinetd ..................................................................................... 76
2.5.1. Encapsuladores TCP ....................................................................................... 77
2.5.2. Archivos de configuración de los encapsuladores TCP ....................................... 78
2.5.3. xinetd .............................................................................................................. 86
2.5.4. Archivos de configuración de xinetd .................................................................. 86
2.5.5. Recursos adicionales ....................................................................................... 92
2.6. Kerberos .................................................................................................................... 93
2.6.1. ¿Qué es Kerberos? ......................................................................................... 93
2.6.2. Terminología de Kerberos ................................................................................ 95
2.6.3. Como Funciona Kerberos ................................................................................ 97
2.6.4. Kerberos y PAM .............................................................................................. 98
2.6.5. Configurando un servidor Kerberos 5 ................................................................ 98
2.6.6. Configuración de un Cliente Kerberos 5 .......................................................... 100
2.6.7. Mapeo dominio-a-reinado ............................................................................... 102
2.6.8. Configurando KDCs secundarios .................................................................... 102
2.6.9. Configurando la autenticación cruzada de reinados .......................................... 104
2.6.10. Recursos adicionales ................................................................................... 108
2.7. Redes privadas virtuales (VPNs, por las iniciales en inglés de Virtual Private Networks)
........................................................................................................................................ 109
2.7.1. ¿Cómo funciona una VPN? ............................................................................ 110
2.7.2. VPNs y Fedora .............................................................................................. 110
2.7.3. IPsec ............................................................................................................. 110
2.7.4. Creando una conexión IPsec .......................................................................... 110
2.7.5. Instalación de IPsec ....................................................................................... 111
2.7.6. Configuración de IPsec equipo-a-equipo ......................................................... 111
2.7.7. Configuración IPsec red-a-red ........................................................................ 118
2.7.8. Iniciar y detener una conexión IPsec ............................................................... 125
2.8. Cortafuegos .............................................................................................................. 125
2.8.1. Netfilter e IPTables ........................................................................................ 127
2.8.2. Configuración básica de un cortafuego ............................................................ 127
2.8.3. Uso de IPTables ............................................................................................ 131
2.8.4. Filtrado común de IPTables ............................................................................ 132
2.8.5. Reglas FORWARD y NAT ................................................................................. 133
2.8.6. Software malicioso y suplantación de direcciones IP ....................................... 136
2.8.7. IPTables y el seguimiento de la conexión ........................................................ 137
2.8.8. IPv6 .............................................................................................................. 137
2.8.9. Recursos adicionales ..................................................................................... 138
2.9. IPTables ................................................................................................................... 138
2.9.1. Filtrado de Paquete ....................................................................................... 139
2.9.2. Opciones de la línea de comandos de IPTables ............................................... 140

iv
2.9.3. Guardando las reglas de IPTalbes .................................................................. 150
2.9.4. Programas de control de IPTables .................................................................. 150
2.9.5. IPTables e IPv6 ............................................................................................. 153
2.9.6. Recursos adicionales ..................................................................................... 153

3. Cifrado 155
3.1. Datos en reposo ....................................................................................................... 155
3.2. Cifrado completo del disco ........................................................................................ 155
3.3. Cifrado basado en archivo ........................................................................................ 155
3.4. Datos en movimiento ................................................................................................ 156
3.5. Redes privadas virtuales (VPNs) ............................................................................... 156
3.6. Shell seguro (SSH, por las iniciales en inglés de Secure Shell) .................................... 156
3.7. Cifrado de disco LUKS (Linux Unified Key Setup-on-disk-format) ................................. 157
3.7.1. Implementación de LUKS en Fedora ............................................................... 157
3.7.2. Cifrado manual de directorios ......................................................................... 157
3.7.3. Instrucciones paso a paso .............................................................................. 158
3.7.4. Lo que acaba de realizar ............................................................................... 158
3.7.5. Enlaces de interés ......................................................................................... 159
3.8. Archivos cifrados mediante 7-Zip ............................................................................... 159
3.8.1. Instalación de 7-Zip en Fedora ....................................................................... 159
3.8.2. Instrucciones paso a paso para su instalación ................................................. 159
3.8.3. Instrucciones paso a paso para su utilización .................................................. 159
3.8.4. Elementos para prestar atención .................................................................... 160
3.9. Utilizando GNU Privacy Guard (GnuPG) .................................................................... 160
3.9.1. Generando claves GPG en GNOME ............................................................... 160
3.9.2. Generar claves GPG en KDE ......................................................................... 161
3.9.3. Generar una clave GPG mediante la línea de comandos .................................. 161
3.9.4. Usando GPG con Alpine ................................................................................ 163
3.9.5. Usando GPG con Evolution ............................................................................ 163
3.9.6. Usando GPG con Thunderbird ....................................................................... 164
3.9.7. Acerca del encriptado de la clave pública ........................................................ 165

4. Principios Generales sobre la Seguridad de la Información 167


4.1. Consejos, Guías y Herramientas ............................................................................... 167

5. Instalación segura 169


5.1. Particiones del disco ................................................................................................. 169
5.2. Utilice encriptado de particiones mediante LUKS ........................................................ 169

6. Mantenimiento de Software 171


6.1. Instale el software mínimo ........................................................................................ 171
6.2. Planifique y configure actualizaciones de seguridad .................................................... 171
6.3. Ajustando las actualizaciones automáticas ................................................................. 171
6.4. Instale paquetes identificados desde repositorios conocidos ........................................ 171

7. Referencias 173

A. Estándares de cifrado 175


A.1. Cifrado sincronizado ................................................................................................. 175
A.1.1. Advanced Encription Standard - AES .............................................................. 175
A.1.2. Data Encryption Standard - DES .................................................................... 175
A.2. Cifrado de llave pública ............................................................................................ 176
A.2.1. Diffie-Hellman ................................................................................................ 177
A.2.2. RSA .............................................................................................................. 177

v
Guía de seguridad

A.2.3. DSA .............................................................................................................. 178


A.2.4. SSL/TLS ....................................................................................................... 178
A.2.5. Criptosistema de Cramer-Shoup ..................................................................... 178
A.2.6. Cifrado ElGamal ............................................................................................ 179
B. Historial de revisiones 181

vi
Prefacio
1. Convenciones del Documento
Este manual utiliza varias convenciones para resaltar algunas palabras y frases y llamar la atención
sobre ciertas partes específicas de información.
1
En ediciones PDF y de papel, este manual utiliza tipos de letra procedentes de Liberation Fonts .
Liberation Fonts también se utilizan en ediciones de HTML si están instalados en su sistema. Si no,
se muestran tipografías alternativas pero equivalentes. Nota: Red Hat Enterprise Linux 5 y siguientes
incluyen Liberation Fonts predeterminadas.

1.1. Convenciones Tipográficas


Se utilizan cuatro convenciones tipográficas para llamar la atención sobre palabras o frases
específicas. Dichas convenciones y las circunstancias en que se aplican son las siguientes:

Negrita monoespaciado

Utilizada para resaltar la entrada del sistema, incluyendo comandos de shell, nombres de archivo y
rutas. También se utiliza para resaltar teclas claves y combinaciones de teclas. Por ejemplo:

Para ver el contenido del archivo my_next_bestselling_novel en su directorio


actual de trabajo, escriba el comando cat my_next_bestselling_novel en el
intérprete de comandos de shell y pulse Enter para ejecutar el comando.

El ejemplo anterior incluye un nombre de archivo, un comando de shell y una tecla clave. Todo se
presenta en negrita-monoespaciado y distinguible gracias al contexto.

Las combinaciones de teclas se pueden distinguir de las teclas claves mediante el guión que conecta
cada parte de una combinación de tecla. Por ejemplo:

Pulse Enter para ejecutar el comando.

Pulse Control+Alt+F1 para cambiar a la primera terminal virtual. Pulse


Control+Alt+F7 para volver a su sesión de Ventanas-X.

La primera oración resalta la tecla clave determinada que se debe pulsar. La segunda resalta dos
conjuntos de tres teclas claves que deben ser presionadas simultáneamente.

Si se discute el código fuente, los nombres de las clase, los métodos, las funciones, los nombres de
variables y valores de retorno mencionados dentro de un párrafo serán presentados en Negrita-
monoespaciado. Por ejemplo:

Las clases de archivo relacionadas incluyen filename para sistema de archivos,


file para archivos y dir para directorios. Cada clase tiene su propio conjunto
asociado de permisos.

Negrita proporcional

Esta denota palabras o frases encontradas en un sistema, incluyendo nombres de aplicación, texto de
cuadro de diálogo, botones etiquetados, etiquetas de cajilla de verificación y botón de radio; títulos de
menú y títulos del sub-menú. Por ejemplo:
1
https://fedorahosted.org/liberation-fonts/

vii
Prefacio

Seleccionar Sistema → Preferencias → Ratón desde la barra del menú principal


para lanzar Preferencias de Ratón. En la pestaña de Botones, haga clic en la cajilla
ratón de mano izquierda y luego haga clic en Cerrar para cambiar el botón principal
del ratón de la izquierda a la derecha (adecuando el ratón para la mano izquierda).

Para insertar un caracter especial en un archivo de gedit, seleccione desde la barra


del menú principal Aplicaciones → Accesorios → Mapa de caracteres. Luego,
desde la barra del menú mapa de caracteres elija Búsqueda → Hallar…, teclee el
nombre del caracter en el campo Búsqueda y haga clic en Siguiente. El caracter
buscado se resaltará en la Tabla de caracteres. Haga doble clic en este caracter
resaltado para colocarlo en el campo de Texto para copiar y luego haga clic en el
botón de Copiar. Ahora regrese a su documento y elija Editar → Pegar desde la
barra de menú de gedit.

El texto anterior incluye nombres de aplicación; nombres y elementos del menú de todo el sistema;
nombres de menú de aplicaciones específicas y botones y texto hallados dentro de una interfaz
gráfica de usuario, todos presentados en negrita proporcional y distinguibles por contexto.

Itálicas-negrita monoespaciado o Itálicas-negrita proporcional

Ya sea negrita monoespaciado o negrita proporcional, la adición de itálicas indica texto reemplazable
o variable. Las itálicas denotan texto que usted no escribe literalmente o texto mostrado que cambia
dependiendo de la circunstancia. Por ejemplo:

Para conectar a una máquina remota utilizando ssh, teclee ssh


nombredeusuario@dominio.nombre en un intérprete de comandos de shell. Si la
máquina remota es example.com y su nombre de usuario en esa máquina es john,
teclee ssh john@example.com.

El comando mount -o remount file-system remonta el sistema de archivo


llamado. Por ejemplo, para volver a montar el sistema de archivo /home, el comando
es mount -o remount /home.

Para ver la versión de un paquete actualmente instalado, utilice el comando rpm -q


paquete. Éste entregará el resultado siguiente: paquete-versión-lanzamiento.

Observe las palabras en itálicas- negrita sobre — nombre de usuario, domain.name, sistema de
archivo, paquete, versión y lanzamiento. Cada palabra es un marcador de posición, tanto para el texto
que usted escriba al ejecutar un comando como para el texto mostrado por el sistema.

Aparte del uso estándar para presentar el título de un trabajo, las itálicas denotan el primer uso de un
término nuevo e importante. Por ejemplo:

Publican es un sistema de publicación de DocBook.

1.2. Convenciones del documento


Los mensajes de salida de la terminal o fragmentos de código fuente se distinguen visualmente del
texto circundante.

Los mensajes de salida enviados a una terminal se muestran en romano monoespaciado y se


presentan así:

books Desktop documentation drafts mss photos stuff svn

viii
Notas y Advertencias

books_tests Desktop1 downloads images notes scripts svgs

Los listados de código fuente también se muestran en romano monoespaciado, pero se presentan
y resaltan de la siguiente manera:

package org.jboss.book.jca.ex1;

import javax.naming.InitialContext;

public class ExClient


{
public static void main(String args[])
throws Exception
{
InitialContext iniCtx = new InitialContext();
Object ref = iniCtx.lookup("EchoBean");
EchoHome home = (EchoHome) ref;
Echo echo = home.create();

System.out.println("Created Echo");

System.out.println("Echo.echo('Hello') = " + echo.echo("Hello"));


}
}

1.3. Notas y Advertencias


Finalmente, utilizamos tres estilos visuales para llamar la atención sobre la información que de otro
modo se podría pasar por alto.

Nota
Una nota es una sugerencia, atajo o enfoque alternativo para una tarea determinada.
Ignorar una nota no debería tener consecuencias negativas, pero podría perderse de
algunos trucos que pueden facilitarle las cosas.

Importante
Important boxes detail things that are easily missed: configuration changes that
only apply to the current session, or services that need restarting before an update
will apply. Ignoring a box labeled 'Important' won't cause data loss but may cause
irritation and frustration.

Advertencia
Las advertencias no deben ignorarse. Ignorarlas muy probablemente ocasionará
pérdida de datos.

2. ¡Necesitamos sus comentarios!


Más información acerca del proyecto Guía de Seguridad de Linux puede encontrarse en https://
fedorahosted.org/securityguide

ix
Prefacio

Para proveer retroalimentación de la Guía de Seguridad, por favor envíe un error a https://
bugzilla.redhat.com/enter_bug.cgi?component=security-guide&product=Fedora%20Documentation.
Por favor seleccione el componente adecuado para esta guía.

x
Resumen acerca de la seguridad
Debido a la creciente necesidad de utilización de poderosas computadoras conectadas en red
para poder mantener una empresa en funcionamiento, y para poder realizar seguimientos de
nuestra información personal, se han desarrollado industrias enteras dedicadas a la práctica de la
seguridad de redes y computadoras. Numerosas empresas han solicitado la pericia y el conocimiento
de expertos en seguridad para poder controlar correctamente sus sistemas, y para que diseñen
soluciones adecuadas a los requerimientos operativos de la organización. Debido a la naturaleza
dinámica de muchas de estas organizaciones, donde los trabajadores deben tener acceso a los
recursos informáticos, ya sea en forma local o remota, la necesidad de entornos de computación
seguros se ha hecho más pronunciada.

Desafortunadamente, muchas de las organizaciones (y muchos usuarios individuales), luego de


pensarlo dos veces, deciden relegar el aspecto de la seguridad a un plano inferior, dándole prioridad
a otras áreas de sus emprendimientos, como ser producción, presupuesto, o infraestructura. Y
frecuentemente, una implementación adecuada de la seguridad es adoptada postmortem — después
que un acceso no autorizado haya ocurrido. Los expertos en seguridad concuerdan en que adoptar
las medidas correctas antes de conectar un sitio a una red insegura, como lo es Internet, es una
manera efectivo de prevenir la mayoría de los intentos de intrusión.

1.1. Introducción a la Seguridad

1.1.1. ¿Qué es la seguridad en computación?


La noción de seguridad en computación es un concepto general que cubre un área muy extensa
dentro del ámbito de la computación y del procesamiento de la información. Las industrias que
dependen tanto de redes como de sistemas de computación para poder realizar cotidianamente
operaciones comerciales, o para acceder a diverso tipo de información vital, entienden que sus datos
son una parte importante de sus activos. Han ingresado a nuestro vocabulario cotidiano diversos
términos y unidades de medición pertenecientes al ámbito comercial, como ser por ejemplo, el
coste total de propiedad (TCO, por las iniciales en inglés de Total Cost of Ownership), o servicio de
calidad (QoS, por las iniciales en inglés de Quality of Service). Al utilizar estas unidades, las industrias
pueden calcular aspectos tales como ser la integridad de los datos, o el tipo de disponibilidad que
tienen, y poder considerarlos parte de los costos de planeamiento y administración de procesos.
En algunas industrias, como la del comercio electrónico por ejemplo, el tipo de disponibilidad y la
confiabilidad de los datos puede ser un elemento determinante para el éxito o el fracaso.

1.1.1.1. ¿De dónde viene la idea de seguridad en computación?


La seguridad en la información ha evolucionado con el correr de los años debido al aumento en la
utilización de redes públicas y el consecuente riesgo de exposición que en ellas tienen los datos
1
privados, confidenciales o financieros. Existen numerosos antecedentes, como el caso Mitnick o
2
Vladimir Levin , que sugieren a todas las organizaciones de cualquier tipo de industria, replantearse
la forma en que tienen organizado el manejo de su propia información, o de la manera en que es
transmitida y revelada. La popularidad que tiene Internet es uno de los motivos fundamentales gracias
al cual se han intensificado los esfuerzos relacionados con la seguridad en los datos.

http://law.jrank.org/pages/3791/Kevin-Mitnick-Case-1999.html
http://www.livinginternet.com/i/ia_hackers_levin.htm

1
Capítulo 1. Resumen acerca de la seguridad

Un número creciente de personas está utilizando sus computadoras personales para obtener acceso
a los recursos que ofrece Internet. Desde investigación y obtención de información hasta el correo
electrónico y transacciones comerciales, Internet es considerada como uno de los desarrollos más
importantes del siglo 20.

Sin embargo, Internet y sus primeros protocolos fueron desarrollados como un sistema basado
en la confianza. Esto significa que el Protocolo de Internet no fue diseñado para ser seguro en sí
mismo. No existen estándares de seguridad aprobados dentro del bloque de comunicaciones TCP/
IP, dejándolo indefenso ante usuarios o procesos de la red potencialmente dañinos. Desarrollos
modernos han hecho de las comunicaciones en Internet algo más seguro, pero todavía existen
varios incidentes que acaparan la atención mundial, y nos recuerdan el hecho de que nada es
completamente seguro.

1.1.1.2. La seguridad hoy


En febrero del año 2000 un ataque de denegación de servicio distribuido (DDoS, por las iniciales
en inglés de Distributed Denial of Service) fue liberado sobre varios de los sitios de Internet que
tenían más tráfico. Este ataque afectó a yahoo.com, cnn.com, amazon.com, fbi.gov y algunos
otros sitios que son completamente inaccesibles para los usuarios normales, dejando a los
enrutadores bloqueados durante varias horas con transferencias de grandes paquetes ICMP, o
también denominado un ping de la muerte. El ataque fue llevado a cabo por asaltantes desconocidos
utilizando programas especialmente creados (y que están a disposición de cualquiera), que buscan
servidores de red vulnerables, instalan en esos servidores aplicaciones de cliente denominadas
troyanos, y sincronizando un ataque con cada servidor infectado, inundando los sitios elegidos y
dejándolos inutilizables. Muchos adjudican el éxito del ataque a fallas fundamentales en la forma en
que están estructurados los enrutadores y los protocolos que utilizan. Estas fallas tienen que ver con
la manera en que se aceptan los datos entrantes, sin importar desde dónde provengan, o con qué
propósito los paquetes hayan sido enviados.

En el año 2007, una pérdida de datos permitió la explotación de una debilidad bien conocida en el
protocolo de cifrado inalámbrico WEP (por las iniciales en inglés de Wired Equivalent Privacy), que
resultó en el robo de 45 millones de números de tarjetas de créditos de una institución financiera
3
global.

En otro incidente, los registros de facturación de 2,2 millones de pacientes, almacenados en una cinta
4
de respaldo, fueron robados del asiento de un vehículo de cadetería.

Actualmente, se estima que 1,8 mil millones de personas usan o usaron Internet alrededor del mundo
5
. Al mismo tiempo:

• En cualquier día, hay aproximadamente 225 incidentes principales de fallas de seguridad


informados al Centro de Coordinación CERT en la Universidad de Carnegie Mellon.

• En el año 2003, el número de incidencias CERT informadas ascendió a 137,529 de los 82,094
informados en el año 2002, y de los 52,658 en el 2001.

• El impacto económico a nivel mundial de los virus de Internet más peligrosos de los últimos tres
años se estimó en US$ 13.2 mil millones.

http://www.theregister.co.uk/2007/05/04/txj_nonfeasance/
http://www.healthcareitnews.com/story.cms?id=9408
http://www.internetworldstats.com/stats.htm

2
¿Qué es la seguridad en computación?

6
Del informe "El Estado Global de la Seguridad de la Información" , realizado por CIO Magazine en el
año 2008 sobre diferentes negocios y ejecutivos en tecnologías, se extrae lo siguiente:

• Sólo el 43% de los encuestados audita o monitorea el cumplimiento de las políticas de seguridad de
sus usuarios

• Sólo el 22% mantiene un inventario de las compañías externas que utilizan sus datos

• El origen de casi la mitad de los incidentes de seguridad se caratularon como "Desconocidos"

• 44% de los encuestados planean incrementar sus gastos en seguridad en el año siguiente

• 59% tiene una estrategia de seguridad de la información

Estos resultados refuerzan la realidad de que la seguridad de computadoras se ha vuelto un gasto


cuantificable y justificable en los presupuestos de TI. Las organizaciones que necesitan tanto la
integridad como la rápida disponibilidad de sus datos, lo obtienen gracias a la habilidad que los
administradores de sistema, desarrolladores e ingenierospara tienen para asegurar la disponibilidad
de sus sistemas, servicios y datos, durante las 24 horas de los 365 días del año. Ser víctima
de usuarios maliciosos, procesos o ataques coordinados es una amenaza directa al éxito de la
organización.

Desafortunadamente, la seguridad de sistemas y de la red puede ser una proposición difícil, que
requiere un conocimiento intrincado de cómo una organización expresa, usa, manipula y transmite
su información. El entendimiento de la forma en que una organización (y la gente que la compone)
conduce el negocio es primordial para implementar un plan de seguridad apropiado.

1.1.1.3. Estandarizando la seguridad


Las empresas de todas las industrias confían en las regulaciones y en las reglas que son puestas
por las personas que construyen estándares tales como la Asociación Médica Americana (AMA,
por las iniciales en inglés de American Medical Association) o el Instituto de Ingenieros Eléctricos
y Electrónicos (IEEE, Institute of Electrical and Electronics Engineers). Los mismos ideales se
aplican a la seguridad de la información. Muchos consultores y fabricantes se ponen de acuerdo
en el modelo de seguridad estándar conocido como CIA (Confidentiality, Integrity and Availability),
o Confidencialidad, Integridad y Disponibilidad. Este modelo de 3 capas es un componente
generalmente aceptado para averiguar los riesgos de la información vital y del establecimiento de la
política de seguridad. A continuación se describe el modelo CIA en más detalle:

• Confidencialidad — La información sensible debe estar disponible sólo para un conjunto de


individuos predefinido. La transmisión no autorizada y el uso de la información se debe restringir.
Por ejemplo, la confidencialidad de la información asegura que la información personal o financiera
de un cliente no pueda ser obtenida por un individuo no autorizado para propósitos maléficos tales
como el robo de identidad, o fraude crediticio.

• Integridad — La información no debe alterarse de manera tal que se torne incompleta o incorrecta.
Los usuarios no autorizados deben ser restringidos de la habilidad de modificar o destruir
información vital.

• Disponibilidad — La información debe ser accesible a usuarios autorizados en cualquier momento


en el que sea necesario. La disponibilidad es una garantía de que la información se puede obtener
en una frecuencia y duración preestablecida. Esto se mide a menudo en términos de porcentajes

http://www.csoonline.com/article/454939/The_Global_State_of_Information_Security_

3
Capítulo 1. Resumen acerca de la seguridad

y se deja sentado formalmente en Acuerdos de Disponibilidad del Servicio (SLAs, por las iniciales
en inglés de Service Level Agreements) con los proveedores de servicios de red y sus clientes
empresariales.

1.1.2. SELinux
Fedora incluye una mejora al kernel de Linux que se llama SELinux, que implementa la arquitectura
de Control de Acceso Obligatorio (MAC), que provee un nivel más fino de control sobre los archivos,
procesos, usuarios y aplicaciones en el sistema. La discusión detallada sobre SELinux está más
allá del alcance de este documento; sin embargo, para más información sobre SELinux y su uso en
Fedora, vaya a la Guía del Usuario de SELinux de Fedora disponible en http://docs.fedoraproject.org/
selinux-user-guide/. Hay otros recursos de SELinux listados en Capítulo 7, Referencias.

1.1.3. Controles de seguridad


La seguridad de computadoras es a menudo dividida en tres categorías principales distintas,
comúnmente referidas como controles:

• Físico

• Técnico

• Asministrativo

Estas tres amplias categorías definen los objetivos principales de una implementación de seguridad
apropiada. Dentro de estos controles existen subcategorías que ofrecen mayores características, o
brindan información acerca de su correcta implementación.

1.1.3.1. Control físico


El control físico es la implementación de medidas de seguridad en una estructura definida, utilizado
para determinar o evitar el acceso no autorizado a material sensible. Ejemplos de controles físicos
son:

• Circuito cerrado de cámaras de vigilancia

• Sistemas de alarma de movimientos, o termales

• Guardias de la seguridad

• IDs de Imagen

• Puertas de acero bloqueadas y selladas

• Biometría (incluye huellas digitales, voz, cara, iris, escritura manual y otros métodos automatizados
usados para reconocer a los individuos)

1.1.3.2. Técnicas de control


Los controles técnicos usan la tecnología como una base para el control del acceso y del uso de
datos sensibles a través de una estructura física y sobre una red. Los controles técnicos son de largo
alcance y abarcan tecnologías como:

• Cifrado

4
Conclusión

• Tarjetas inteligentes

• Autenticación de red

• Listas de control de acceso (ACLs)

• Software para auditar la integridad de archivos

1.1.3.3. Controles administrativos


Los controles administrativos definen los factores humanos de la seguridad. Involucran todos los
niveles del personal dentro de una organización y determinan qué usuarios tienen acceso a qué
recursos y la información por tales medios como:

• Capacitación y conocimientos

• Preparación para desastres y planes de recuperación

• Reclutamiento de personal y estrategias de separación

• Registración y control del personal

1.1.4. Conclusión
Ahora que ya conoce los orígenes, las razones y los aspectos de la seguridad, encontrará más
fácil determinar el rumbo apropiado con respecto a Fedora. Es importante conocer qué factores y
condiciones hacen a la seguridad para planear e implementar una estrategia apropiada. Con esta
información en mente, el proceso se puede formalizar y los caminos a seguir se hacen más claros a
medida que profundiza en los detalles del proceso de seguridad.

1.2. Evaluación de debilidades


Dependiendo del tiempo, de los recursos y de la motivación, un atacante puede ingresar
prácticamente en cualquier sistema. En términos absolutos, ninguna tecnología o proceso en
seguridad actualmente disponible, puede garantizar que un sistema determinado sea completamente
invulnerable. Los enrutadores contribuyen a la seguridad de las puertas de enlace frente a Internet.
Los cortafuegos contribuyen a la seguridad de las redes internas. Las redes virtuales privadas envían
datos en forma segura mediante un flujo encriptado. Sistemas para la detección de extraños le
avisan en caso de encontrar actividad malintencionada. Sin embargo, el éxito de cada una de estas
tecnologías depende de una numerosa cantidad de variables, entre las cuales podemos encontrar:

• La experiencia del equipo responsable de la configuración, monitoreo y manutención de esas


tecnologías.

• La habilidad para enmendar y actualizar servicios y servidores en forma veloz y eficiente.

• La habilidad de quienes son responsables de mantener sobre la red una vigilancia permanente.

Debido a las características dinámicas de los sistemas de datos y de las tecnologías, asegurar
los recursos corporativos puede llegar a ser algo bastante complejo. Debido a esta complejidad, a
menudo es difícil encontrar herramientas experimentadas para todos sus sistemas. Si bien es posible
contar con personal cuyos conocimientos abarquen numerosos aspectos de los niveles generales
de la seguridad en la información, es difícil conservar a quienes puedan considerarse expertos en
los diferentes aspectos de una misma área. Principalmente esto sucede debido a que cada aspecto

5
Capítulo 1. Resumen acerca de la seguridad

de cada área de la seguridad en la información necesita atención y concentración constante. La


seguridad en la información nunca permanece inmóvil.

1.2.1. Pensando como el enemigo


Imagine que usted administra la red de una empresa. Por lo general tales redes están compuestas
de sistemas operativos, aplicaciones, servidores, monitores de red, cortafuegos, sistemas para
la detección de intrusos, y mucho más. Ahora imagínese tratando de mantenerse actualizado en
todos esos aspectos. Dada la complejidad del software y de los entornos de red que existe hoy
en día, los errores y los puntos débiles son permanentes. Mantenerse al día con los parches y las
actualizaciones, para la totalidad de la red de una gran organización con sistemas heterogéneos,
puede convertirse en una tarea intimidante.

Combine la experiencia que habría que necesitarse, con las tareas a realizar para mantenerse
actualizado, y serán inevitables la presencia de incidentes, de sistemas vulnerados, de datos
alterados, y de servicios interrumpidos.

Para incrementar las tecnologías en seguridad y ayudar a proteger los sistemas, redes y datos,
debería pensar del mismo modo en que lo hace un atacante, y desde este punto de vista
comprobar la seguridad de su sistema verificando sus debilidades. Realizar evaluaciones de
seguridad preventivas de su sistema y recursos de red, pueden enseñarle potenciales problemas, y
solucionarlos, antes que sean aprovechados por un atacante.

Una evaluación de debilidades es una auditoría interna de su red y de su sistema de seguridad,


cuyo resultado indica la confidencialidad, integridad y disponibilidad de su red (como es explicado
en Sección 1.1.1.3, “Estandarizando la seguridad”). Por lo general, una evaluación de debilidades se
inicia con una etapa de reconocimiento, durante la cual se obtienen datos importantes relacionados
con los sistemas y los recursos involucrados. En la etapa siguiente se verifica el sistema en busca de
debilidades conocidas, y culmina con una etapa de informe, en donde todo lo que se ha encontrado
es clasificado entre las categorías de riesgo alto, medio y bajo. En esta última etapa, además, se
proponen métodos para mejorar la seguridad (o eliminar el riego) del sistema analizado.

Si usted tuviera que realizar una evaluación de las debilidades de su hogar, seguramente verificaría
que cada una de las puertas se encuentre cerrada con llave. También confirmaría que cada
una de las ventanas esté cerrada, y trabada con el pestillo. El mismo concepto se aplica a los
sistemas, redes y datos electrónicos. Los usuarios malintencionados son los ladrones de sus datos.
Concéntrese en las herramientas que utilizan, en su forma de pensar y en sus motivaciones, y
entonces será capaz de poder anticiparse a sus acciones.

1.2.2. Definiendo evaluación y pruebas


Las evaluaciones de debilidades pueden ser catalogadas en dos grandes tipos: De afuera hacia
adentro y de adentro hacia afuera.

Cuando se realice una evaluación de debilidades desde afuera hacia adentro, estará intentando
comprometer su sistema desde el exterior. El punto de vista del atacante lo obtiene al considerarse
fuera de su compañía. Usted ve lo que el atacante ve — direcciones IP públicas y capaces de
ser enrutadas, sistemas en las interfaces externas DMZ de su cortafuegos, y más. DMZ significa
"zona desmilitarizada" (por las iniciales en inglés de Demilitarized Zone), y hace referencia a una
computadora o red pequeña ubicada entre una red interna confiable, como por ejemplo una red LAN
corporativa privada, y una red externa no confiable, como por ejemplo lo es Internet. Por lo general,
DMZ contiene dispositivos accesibles al tráfico de Internet, como son los servidores de red (HTTP),
servidores FTP, servidores SMTP (correo electrónico) y servidores DNS.

6
Definiendo evaluación y pruebas

Cuando realice una evaluación de debilidades desde adentro hacia afuera, usted tiene una especie
de ventaja ya que, al estar en una ubicación interna, su estado es el de ser alguien confiable, y por
lo tanto, superior. Este es el punto de vista adquieren usted y sus compañeros de trabajo, cada vez
que se registran en el sistema. Puede ver servidores de impresión, servidores de archivos, bases de
datos, y demás recursos.

Existen notables distinciones entre estos dos tipos de evaluaciones. Desde el interior de la compañía
se tienen privilegios superiores a los que se obtendrían desde el exterior. Aún hoy, en muchas
organizaciones, la seguridad es configurada de tal manera para evitar que ingresen intrusos desde
el exterior, y muy poco se hace para asegurar los elementos internos de la organización (como
ser cortafuegos departamentales, controles de acceso de niveles de usuarios, procedimientos de
autenticaciones para recursos internos, etc.). Por lo general, existen muchos más recursos si se
busca dentro de una compañía, ya que la mayoría de los sistemas son internos a ella. Una vez que se
encuentre fuera de la compañía, inmediatamente será identificado como un elemento no seguro. Los
sistemas y las herramientas disponibles para utilizar desde fuera son, generalmente, muy limitadas.

Considere la diferencia existente entre evaluaciones de debilidades y pruebas de penetración. Piense


en una evaluación de debilidades como el primer paso de una prueba de penetración. La información
obtenida en la evaluación es utilizada para la prueba. Cualesquiera sean las áreas o los lugares
que el resultado de la evaluación haya sugerido verificar en búsqueda de agujeros o debilidades
potenciales, serán esos mismos lugares los que la prueba de penetración intentará utilizar para
aprovechar esas debilidades e ingresar al sistema.

Acceder a la infraestructura de la red es un proceso dinámico. La seguridad es dinámica, tanto la


física como la de la información. Realizar una evaluación determina una visión general, que puede
arrojar resultados falsos, tanto para bien como para mal.

La eficacia de los administradores de seguridad es directamente proporcional a las herramientas


que utilizan y al conocimiento que poseen. Elija cualquiera de las herramientas de evaluación que se
encuentren disponibles actualmente, ejecútelas en su sistema, y es casi una garantía que algunos
resultados serán erróneos. Ya sea por una falla del programa, o por un error del usuario, el resultado
será el mismo. La herramienta puede llegar a encontrar debilidades que en realidad no existen (falsos
positivos); o , peor aún, la herramienta puede no encontrar debilidades que efectivamente existen
(falsos negativos).

Ahora que ha sido definida la diferencia entre una evaluación de debilidades y una prueba de
penetración, como parte de una mejor aplicación de los métodos, revise cuidadosamente los datos
arrojados por la evaluación antes de realizar una prueba de penetración.

Advertencia
Intentar aprovechar las debilidades de los recursos de producción, puede tener
efectos adversos en la productividad y eficiencia de sus sistemas y redes.

En la lista siguiente se examinan algunos de los beneficios de llevar a cabo evaluaciones de


vulnerabilidad.

• Crea un enfoque pro-activo sobre la seguridad de la información

• Encuentra potenciales debilidades antes que las encuentren los atacantes

• Funciona en sistemas que se mantiene actualizados y enmendados

• Promueve el crecimiento y la asistencia en el desarrollo de la especialización del personal

7
Capítulo 1. Resumen acerca de la seguridad

• Reduce las pérdidas económicas y la publicidad negativa

1.2.2.1. Estableciendo una metodología


Para ayudar en la selección de las herramientas para realizar una evaluación de debilidades, es útil
establecer un método. Desafortunadamente, por el momento no existe una metodología previamente
definida, sin embargo, el sentido común y el hecho de adoptar buenas costumbres en materia de
seguridad pueden actuar como una guía eficiente.

¿Cuál es el objetivo? ¿Estamos observando un servidor, o la totalidad de una red y todo lo que en ella
existe? ¿Estamos fuera o dentro de la compañía? Las respuestas a estas preguntas son importantes
debido a que ayudan a determinar, no solo las herramientas que tendremos que utilizar, sino también
la forma en que vamos a hacerlo.

Para aprender más acerca del establecimiento de metodologías, visite los siguientes sitios web:

• http://www.isecom.org/osstmm/ El manual de metodología de prueba de seguridad de código


abierto (OSSTMM, por las iniciales en inglés de The Open Source Security Testing Methodology
Manual)

• http://www.owasp.org/ El proyecto de seguridad de aplicaciones de red abierta (OWASP, por las


iniciales en inglés de The Open Web Application Security Project)

1.2.3. Herramientas de evaluación


Una evaluación puede iniciarse utilizando algún tipo de herramienta que permita reunir información.
Cuando se acceda a la totalidad de la red, primero haga un mapeo del diagrama para encontrar
los equipos que se encuentren en ejecución. Una vez localizados, examine a cada uno de ellos de
manera individual. Para concentrarse en estos equipos se necesita otro conjunto de herramientas.
Conocer qué herramientas utilizar puede ser la etapa más importante del proceso para poder
encontrar debilidades.

Al igual que con cualquier aspecto de nuestra vida cotidiana, existen numerosas herramientas
diferentes que son capaces de realizar el mismo trabajo. Este concepto también se aplica a la
realización de evaluaciones de debilidades. Existen herramientas específicas para los sistemas
operativos, para las aplicaciones, incluso para las redes (de acuerdo a los protocolos utilizados).
Algunas herramientas son gratuitas, otras no. Algunas herramientas son intuitivas y sencillas de
utilizar, mientras que otras son crípticas y poco documentadas, pero que tienen capacidades que
otras no poseen.

Encontrar las herramientas apropiadas puede ser una tarea intimidante, y la experiencia es un
elemento importante para poder hacerlo. Si es posible, establezca un laboratorio de pruebas y utilice
la mayor cantidad de herramientas que pueda, anotando las debilidades y fortalezas de cada una
de ellas. Adicionalmente, busque mayor información en Internet mayor información, como ser por
ejemplo artículos, guías de tipo paso-a-paso, o incluso listas de correo de una herramienta específica.

Las herramientas detalladas a continuación son sólo un pequeño ejemplo de las que se encuentran
disponibles.

1.2.3.1. Analizando equipos con Nmap


Nmap es una herramienta muy conocida incluida en Fedora que puede ser utilizada para determinar
el diagrama de una red. Nmap ha estado disponible desde hace muchos años, y probablemente sea

8
Herramientas de evaluación

la herramienta más utilizada para reunir información de red. Incluye una página man excelente con
información detallada de sus usos y opciones. Los administradores pueden utilizar Nmap sobre una
red para encontrar sistemas de equipos y puertos abiertos en esos sistemas.

Nmap es un primer paso muy efectivo en la realización de evaluaciones de debilidades. Puede


mapear todos los equipos dentro de su red, e incluso indicar una opción que permite a Nmap
intentar identificar el sistema operativo ejecutándose en un equipo determinado. Nmap es un buen
fundamento sobre el que establecer una política de utilización de servicios seguros, y detener
servicios no seguros.

1.2.3.1.1. Usando Nmap


Nmap puede ejecutarse desde una terminal ingresando el comando nmap, seguido por el nombre del
equipo o dirección IP de la máquina a analizar.

nmap foo.example.com

Los resultados de un análisis básico (que puede demorarse unos minutos, de acuerdo al lugar en
donde se encuentre el equipo), deberían ser similares a los siguientes:

Starting Nmap 4.68 ( http://nmap.org )


Interesting ports on foo.example.com:
Not shown: 1710 filtered ports
PORT STATE SERVICE
22/tcp open ssh
53/tcp open domain
70/tcp closed gopher
80/tcp open http
113/tcp closed auth

Nmap verifica los puertos de comunicaciones de red más comunes, en busca de servicios que se
encuentren escuchando o esperando. Este conocimiento puede servirle a un administrador que quiere
cerrar servicios innecesarios o que no sean utilizados.

Para obtener mayor información acerca de la utilización de Nmap, visite la página oficial en la
siguiente URL:

http://www.insecure.org/

1.2.3.2. Nessus
Nessus es un examinador de seguridad para cualquier tipo de servicios. La arquitectura de tipo
complementos de Nessus permite a los usuarios personalizarlo de acuerdo a los requerimientos
de sus sistemas o redes. Como cualquier otro examinador, la eficiencia de Nessus es directamente
proporcional a la base de datos de la que depende. Afortunadamente, Nessus es actualizado
periódicamente y entre sus recursos se encuentran el de ofrecer informes completos, análisis de
equipos, y búsqueda de debilidades en tiempo real. Recuerde que siempre pueden existir resultados
falsos, aún en herramientas tan poderosas y tan frecuentemente actualizadas como Nessus.

9
Capítulo 1. Resumen acerca de la seguridad

Nota
Tanto el servidor como el cliente Nessus se encuentran disposnibles en los
repositorios de Fedora, pero para poder utilizarlos es necesario suscribirse. Se ha
incluido en este documento como una referencia para aquellos usuarios que podrían
estar interesados en utilizar esta conocida herramienta.

Para obtener mayor información acerca de Nessus, visite el sitio web oficial en la siguiente URL:

http://www.nessus.org/

1.2.3.3. Nikto
Nikto es un excelente examinador de programas de interfaz común de puerta de enlace (CGI, por las
iniciales en inglés de Common Gateway Interface). Nikto no sólo verifica debilidades CGI, sino que lo
hace de una forma evasiva, de modo de poder evitar sistemas de detección de intrusiones. Se ofrece
con información detallada que debería ser cuidadosamente leída antes de ejecutar el programa. Si
usted posee servidores Web ofreciendo programas CGI, Nikto puede ser una herramienta excelente
para verificar la seguridad de estos servidores.

Más información sobre Nikto se puede encontrar en la siguiente URL:

http://www.cirt.net/code/nikto.shtml

1.2.3.4. VLAD el escáner


VLAD es un examinador de debilidades desarrollado por el equipo RAZOR de Bindview, Inc., que
verifica en la lista SANS de los diez problemas de seguridad más comunes (problemas SNMP,
problemas por compartir archivos, etc.). Si bien no es tan completo como Nessus, vale la pena
investigar VLAD.

Nota
VLAD no se incluye con Fedora y no está soportado. Se ha incluido en este
documento como una referencia para aquellos usuarios que podrían estar
interesados en utilizar esta conocida aplicación.

Más información sobre VLAD se puede encontrar el sitio web del equipo RAZOR en la siguiente URL:

http://www.bindview.com/Support/Razor/Utilities/

1.2.3.5. Anticipando sus necesidades futuras


De acuerdo a sus intenciones y a sus recursos, existen muchas otras herramientas disponibles.
Existen herramientas para redes inalámbricas, redes Novell, sistemas Windows, sistemas Linux,
y más. Otro componente fundamental a la hora de realizar evaluaciones puede incluir la revisión
de la seguridad física, visualización personal o evaluaciones de redes de tipo voz/PBX. Conceptos
novedosos como una caminata de guerra, que implica analizar el perímetro de la estructura física de
su empresa en busca de debilidades en la red inalámbrica, son algunos de los conceptos recientes
que podría investigar y, de ser necesario, incorporarlos a sus evaluaciones. La imaginación y la
exposición son los únicos límites a la hora de planificar y llevar a cabo evaluaciones de seguridad.

10
Atacantes y vulnerabilidades

1.3. Atacantes y vulnerabilidades


Para poder planificar e implementar una buena estrategia de seguridad, tenga en cuenta primero
algunos de los problemas que son aprovechados por los atacantes para poder vulnerar los sistemas.
Sin embargo, antes de detallar estos problemas, tenemos que definir la terminología utilizada a la
hora de identificar a un atacante.

1.3.1. Una breve reseña acerca de los hackers


El significado moderno del término hacker tiene sus orígenes en la década del '60, en el Tech
Model Railroad Club del Instituto de Tecnología de Massachusetts (MIT, por las siglas en inglés de
Massachusetts Institute of Technology), en donde se diseñaban modelos de trenes a gran escala y
con detalles muy específicos. "Hacker" era el nombre con el que se identificaba a los miembros del
club capaces de sortear las dificultades que presentaba un determinado problema, o que descubría
algún truco útil.

Desde entonces el término "hacker" se ha utilizado para referirse o bien a un aficionado en


computadoras, o bien a un programador talentoso, o bien para todo lo que se encuentre entre
ellos. Una característica compartida entre cualquier tipo de "hacker" es la voluntad de investigar
detalladamente cómo funciona un sistema de computadoras, o una red, con poca o ninguna
motivación ulterior además del mero hecho de investigar. Los desarrolladores de software de código
abierto, a menudo se consideran así mismos y a sus colegas como "hackers", y utilizan esta palabra
como un signo de respeto.

Generalmente, los hackers siguen un código de conducta establecido en la etica del hacker, que
establece que la búsqueda de información y la excelencia son esenciales, y que el hecho de
compartir los conocimientos adquiridos es un deber que el hacker tiene para con la comunidad. A
lo largo de esta búsqueda del conocimiento, algunos hackers disfrutan de los desafíos académicos
que representan el hecho de sortear los controles de seguridad en los sistemas computarizados. Por
este motivo, generalmente el periodismo utiliza el término hacker para referirse a quienes acceden
ilegalmente y con fines criminales, malintencionados o inescrupulosos, a redes o sistemas de
computación. La forma más adecuada para referirse a este tipo de hackers es atacante — un término
creado por los hackers a mediados de la década del '80, para diferenciar ambas comunidades.

1.3.1.1. Zonas grises


Existen diferentes grupos dentro de la comunidad de individuos que se dedica a encontrar y utilizar
con un determinado fin las diversas vulnerabilidades en sistemas y redes. Estos grupos comúnmente
son descritos en función del "color del sombrero que utilizan" (una metáfora que hace referencia a los
rastros que dejan las herramientas que utilizan para realizar sus investigaciones), sombreros que al
mismo tiempo sirven para poder identificar sus intenciones.

El hacker de sombrero blanco es quien examina los sistemas y las redes para conocer sus
capacidades y poder determinar qué tan vulnerables son ante una posible intrusión. Generalmente,
este tipo de hackers vulnera su propio sistema, o los sistemas de algún cliente suyo que lo ha
contratado específicamente con el propósito de controlar su seguridad. Investigadores académicos y
consultores profesionales en el área de seguridad son ejemplos de hackers de sombrero blanco.

Un hacker de sombrero negro es sinónimo de atacante. Generalmente, los atacantes están


menos interesados en la programación o en el aspecto académico a la hora de vulnerar sistemas.
Usualmente utilizan una serie de programas desarrollados exclusivamente para atacar y vulnerar los
aspectos de un sistema que de antemano se sabe que pueden llegar a fallar, y los utilizan para dejar

11
Capítulo 1. Resumen acerca de la seguridad

al descubierto información valiosa en tales sistemas o redes, o para obtener un beneficio personal, o
simplemente para causar daño.

Por otro lado, un hacker de sombrero gris tiene la habilidad de un hacker de sombrero blanco, y en
la mayoría de los casos también sus intenciones, pero en algunas ocasiones utiliza su conocimiento
para propósitos no tan nobles. Puede pensarse en un hacker de sombrero gris como un hacker de
sombrero blanco, que a veces utiliza un sombrero negro para cumplir con objetivos personales.

Generalmente los hackers de sombrero gris se rigen por una norma diferente de la ética del hacker,
que establece que es aceptable vulnerar sistemas, siempre y cuando el hacker no cometa ningún
delito ni haga público aquello que es considerado privado. Sin embargo, alguien podría argumentar,
que el acto de vulnerar un sistema es en sí mismo un acto no ético.

Sin importar la intención del intruso, es importante conocer la debilidad que un atacante puede
intentar explotar. El resto del capítulo se centra en estas cuestiones.

1.3.2. Amenazas a la seguridad de la red


Malas prácticas cuando se configuran los siguientes aspectos de una red pueden aumentar el riesgo
de un ataque.

1.3.2.1. Arquitecturas inseguras


Una red mal configurada es el principal punto de ingreso para usuarios no autorizados. Dejar una red
local, a cuyos usuarios conocemos, abierta y vulnerable a la gran inseguridad que representa Internet
es casi como dejar una puerta entornada en un barrio de criminales. Tal vez no suceda nada en un
determinado período de tiempo, pero en algún momento, alguien va a aprovechar esa oportunidad

1.3.2.1.1. Redes emisoras


Los administradores de sistemas muchas veces no se dan cuenta de la importancia que tiene el
hardware de red que utilizan a la hora de realizar los esquemas de seguridad. El hardware que
se considera sencillo, como son los enrutadores y los concentradores, dependen del principio de
transmisión o principio de no interrupción; esto es, siempre que un nodo transmisor envíe datos sobre
una red hacia un nodo receptor, el concentrador o enrutador envía una transmisión del paquete de
datos hasta que el nodo receptor recibe y procesa los datos. Este método es el más vulnerable para
enviar resolución de protocolo (arp) o control de acceso de contenidos (MAC), ya que esta forma de
envío es accesible tanto por intrusos fuera del equipo, como por usuarios no autorizados dentro de él.

1.3.2.1.2. Servidores centralizados


Otro error posible de cometer dentro de una red, es el uso de computación centralizada. Una medida
común adoptada por muchos comercios a la hora de reducir su presupuesto, es la de concentrar
todos los servicios en una única máquina, relativamente poderosa. Esto puede ser conveniente ya
que hace más sencillas las tareas administrativas, y el costo es económicamente inferior al de realizar
configuraciones sobre varios servidores. Sin embargo, un servidor centralizado representa el único
punto de acceso a la red. Si el servidor central es vulnerado, puede inutilizar completamente a la red,
o peor aún, puede hacer que los datos sean fácilmente manipulados, o directamente sustraídos. En
estas situaciones, un servidor central se convierte en una puerta abierta que permite el acceso a la
red en su totalidad.

12
Amenazas a la seguridad del servidor

1.3.3. Amenazas a la seguridad del servidor


La seguridad de los servidores es tan importante como la seguridad de la red, ya que los servidores
con frecuencia retienen gran parte de la información vital de una determinada organización. Si el
servidor es vulnerado, todos sus contenidos pueden quedar a disposición del atacante para ser
sustraídos o manipulados en su totalidad. Las secciones siguientes hacen referencia a los problemas
principales.

1.3.3.1. Servicios no usados y puertos abiertos


Una instalación completa de Fedora contiene más de 1000 aplicaciones y bibliotecas de paquetes.
Sin embargo, muchos administradores de servidores eligen no instalar todos los paquetes de la
distribución, y prefieren en su lugar realizar una instalación de los paquetes básicos, incluyendo
algunas aplicaciones de servidor.

Una ocurrencia típica entre los administradores de servidores es la de instalar el sistema operativo
sin prestar atención a los programas que efectivamente se están instalando. Esto puede llegar a ser
problemático debido a que podrían instalarse servicios innecesarios, configurarse con los parámetros
establecidos por defecto, y posiblemente iniciarse. Esto puede causar que servicios no deseados,
como Telnet, DHCP o DNS se ejecuten en un servidor o estación de trabajo sin que el administrador
lo sepa, lo que a su vez puede generar tráfico no solicitado hacia el servidor, o incluso un posible
camino de acceso al sistema para los atacantes. Para obtener mayor información acerca del cierre de
puertos y desconexión de servicios que no se utilicen, vea Sección 2.2, “Seguridad del servidor”.

1.3.3.2. Servicios no parchados


La mayoría de las aplicaciones de servidor que se incluyen en una instalación por defecto son
piezas de software sólidas y completamente comprobadas. Habiendo sido utilizadas en entornos de
producción durante muchos años, el código de ellas ha sido totalmente refinado y muchos de sus
errores han sido encontrados y corregidos.

Sin embargo, no existe algo así como el software perfecto y existe siempre un margen para futuras
mejoras. Es más, por lo general el software más reciente no ha sido probado con el rigor que uno
podría esperar, debido a su reciente aparición en los entornos de producción, o debido a que no es
tan popular como otros.

Los desarrolladores y los administradores de sistemas encuentran a menudo, en algunas aplicaciones


de servidor, errores que podrían ser aprovechados para vulnerar el sistema, y publican la información
de tal error en un sitio web relacionado con el tema, como ser por ejemplo, la lista de correo Bugtraq
(http://www.securityfocus.com) o el Equipo de Respuesta de Emergencias de Computación (CERT,
por las iniciales en inglés de Computer Emergency Response Team), cuyo sitio web es (http://
www.cert.org). Si bien estos mecanismos son una forma efectiva de advertir a la comunidad acerca
de problemas en la seguridad, queda en manos de los administradores del sistema enmendar sus
sistemas. Esto es realmente verdadero ya que los atacantes tienen acceso a estos mismos sitios y
podrán utilizar la información para vulnerar sistemas que aún no han sido enmendados. Ser un buen
administrador de sistemas implica ser vigilante, estar atento permanentemente a los errores y a sus
soluciones, y ser capaz de realizar una manutención adecuada del sistema para asegurar un entorno
de computación seguro.

Vaya a la Sección 1.5, “Actualizaciones de seguridad” para más información sobre cómo mantener un
sistema actualizado.

13
Capítulo 1. Resumen acerca de la seguridad

1.3.3.3. Administración desatendida


Los administradores que no pueden enmendar sus sistemas son una de las mayores amenazas
a la seguridad del servidor. De acuerdo con el Instituto de administradores de sistemas, auditoría,
red y seguridad (SANS, por las iniciales en inglés de SysAdmin, Audit, Network, Security Institute),
la principal causa de la vulnerabilidad de la seguridad en computación es "asignar personal no
entrenado para encargarse de la seguridad, y no ofrecerles ni el entrenamiento ni el tiempo necesario
7
para permitirles realizar su trabajo" . Esto funciona tanto para los administradores sin experiencia,
como para aquellos con excesiva confianza en sí mismos, o aquellos que no están del todo motivados
en sus tareas.

Alguno administradores no pueden enmendar sus servidores o estaciones de trabajo, y otros no


le prestan atención a los mensajes de registro enviados desde el kernel del sistema, o generados
por el tráfico en la red. Otro error común se produce al no modificar las contraseñas o claves
establecidas por defecto para los servicios. Por ejemplo, algunas bases de datos tienen contraseñas
administrativas generadas por defecto, debido a que los desarrolladores de las bases de datos
presuponen que el administrador del sistema las modificará inmediatamente después de haberla
instalado en su sistema. Si un administrador de una base de datos no cambia la contraseña, incluso
un atacante sin demasiada experiencia puede utilizar una amplia gama de contraseñas que se
sabe le pueden otorgar privilegios de administrador en esa base de datos. Estos son sólo algunos
ejemplos que ilustran de qué manera una administración débil puede ocasionar la vulnerabilidad de
los servidores.

1.3.3.4. Servicios inseguros en sí mismos


Incluso la organización más precavida puede ser víctima de sus puntos débiles, si elige utilizar
servicios de red inseguros. Por ejemplo, existen numerosos servicios desarrollados presuponiendo
que serán utilizados en redes que se consideran confiables. Sin embargo, este presupuesto deja de
funcionar ni bien el servicio se utiliza en Internet — que es considerada una red insegura.

Una categoría de servicios de red no seguros son aquellos que en el momento de la autenticación,
piden nombres de usuario y contraseñas que no estén encriptados. Telnet y FTP son dos ejemplos de
este tipo de servicios. Si algún software diseñado para sustraer información se encuentre vigilando el
tráfico entre el usuario remoto y un servicio con estas características, tanto los nombres de usuario
como las contraseñas pueden ser interceptadas fácilmente.

En consecuencia, tales servicios pueden rápidamente fracasar gracias al ataque de lo que en la


industria de la seguridad se denomina "el hombre en el medio" (man-in-the-middle). En este tipo de
ataques, el agresor redirige el tráfico de red a su máquina, simulando el nombre del servidor original
hacia donde los paquetes fueron enviados. Una vez que alguien inicie una sesión remota hacia el
servidor, la máquina del atacante actúa como un conducto invisible, ubicada silenciosamente entre
el servicio remoto y el desprevenido usuario, capturando toda la información que este envíe. De esta
manera el atacante puede recopilar contraseñas administrativas y datos crudos sin que el servidor ni
el usuario puedan darse cuenta de ello.

Otra categoría de servicios no seguros incluyen sistemas de archivos de red, y servicios de


información tales como NFS o NIS, que se desarrollan específicamente para una utilización LAN, pero
que desafortunadamente se extienden para incluir WANs (para usuarios remotos). NFS, por defecto,
no tiene configurados mecanismos ni de autenticación ni de seguridad de modo de prevenir que un
atacante pueda montar la porción compartida de NFS y acceda a cualquiera sea la información que
ella contenga. De manera parecida, NIS posee información vital en una base de datos con formato

http://www.sans.org/resources/errors.php

14
Amenazas a las estaciones de trabajo y seguridad en equipos hogareños

ASCII o DBM (derivado de ASCII), que debe ser accedida por cualquiera de los equipos en la red,
incluyendo contraseñas y permisos de archivo. Un atacante que obtenga acceso a esta base de
datos, tendrá acceso a cualquier cuenta de los usuario de la red, incluyendo la del administrador.

Por defecto, Fedora es liberada con todos estos servicios apagados. Sin embargo, dado que
los administradores a menudo se encuentran obligados a utilizarlos, es muy importante realizar
cuidadosamente la configuración de ellos. Para obtener mayor información acerca de cómo configurar
los servicios en forma segura, vea Sección 2.2, “Seguridad del servidor”.

1.3.4. Amenazas a las estaciones de trabajo y seguridad en equipos


hogareños
Las estaciones de trabajo y las PCs hogareñas no son tan propensas a los ataques como lo
son los servidores o las redes, pero también son objeto de atacantes de sistemas, debido a que
generalmente contienen datos importantes, como ser por ejemplo, información de tarjetas de crédito.
Las estaciones de trabajo también puede ser intervenidas sin que el usuario tenga conocimiento
de ello, y en el caso de un ataque coordinado, ser utilizadas por los atacantes como una máquina
"esclava". Por estas razones, conocer los puntos débiles de una estación de trabajo puede evitarle
a los usuarios el dolor de cabeza que implica tener que instalar nuevamente el sistema operativo, o
peor aún, recuperarse luego del robo de sus datos.

1.3.4.1. Malas contraseñas


Las malas contraseñas son una de las formas más fáciles para que un atacante obtenga el acceso
a un sistema. Para información sobre cómo evitar los errores comunes, vaya a Sección 2.1.3,
“Seguridad de contraseñas”.

1.3.4.2. Aplicaciones de tipo cliente vulnerables


Si bien un administrador puede tener un servidor completamente seguro y enmendado, esto no
significa que los usuarios remotos se encuentren a salvo en el momento de acceder a él. Por ejemplo,
si el servidor ofrece servicios Telnet o FTP sobre una red pública, un atacante puede capturar los
nombres de usuario y contraseñas que son enviados a través de la red con un formato de texto
simple, y luego utilizar la información de la cuenta para poder ingresar en la estación de trabajo del
usuario remoto.

Aún cuando se utilicen protocolos seguros, como SSH, un usuario remoto puede ser vulnerable a
ciertos ataques si no mantiene actualizadas sus aplicaciones de cliente. Por ejemplo, los clientes de
SSH v.1 son vulnerables a un ataque de reenvío de X que provenga de servidores maliciosos. Una
vez conectado al servidor, el atacante puede capturar silenciosamente cualquier presión de teclas
o pulsación del ratón que el cliente haya hecho sobre la red. Este problema fue solucionado con el
protocolo SSH v.2, pero queda en manos del usuario conocer qué aplicaciones tienen puntos débiles,
y actualizarlas cuando sea necesario.

Sección 2.1, “Seguridad de la estación de trabajo” discute más en detalle los pasos que los
administradores y usuarios hogareños deben tomar para limitar la vulnerabilidad de las computadoras
estaciones de trabajo.

1.4. Ataques y debilidades comunes


Tabla 1.1, “Debilidades comunes” describe algunas de las debilidades y los puntos de ingreso más
utilizados por intrusos, que pretenden acceder a los recursos de organización de diferentes redes. La

15
Capítulo 1. Resumen acerca de la seguridad

clave para defender estos puntos son las explicaciones acerca de cómo se desarrollan, y cómo los
administradores pueden salvaguardar adecuadamente sus redes contra tales ataques.

Debilidades Descripción Notas


Contraseñas Dejando las contraseñas Asociados comúnmente a equipos
nulas o administrativas en blanco, o utilizando de red como ruteadores, cortafuegos,
predeterminadas la contraseña predeterminada puesta VPNs y aparatos de almacenamiento
por el vendedor. Esto es lo más conectados a la red (NAS).
común en hardware como ruteadores Común en muchos sistemas
y cortafuegos, por lo que algunos operativos viejos, especialmente los
servicios que corren en Linux pueden SOs que agrupan servicios (como
contener contraseñas administrativas UNIX y Windows.)
predeterminadas (aunque Fedora 12 Los administradores, a veces crean
no viene con ellas). apresuradamente cuentas de usuarios
privilegiados, y dejan la contraseña
en blanco, creando un punto de
entrada perfecto para usuarios
malintencionados han descubierto la
cuenta.
Claves Los servicios de seguridad algunas Los puntos de acceso inalámbricos
compartidas veces empaquetan claves de y aparatos servidores seguros
predeterminadas seguridad establecidas por defecto, preconfigurados más comunes.
ya sea para su desarrollo, o para
comprobar su desempeño. Si estas
claves se mantienen inalteradas y se
colocan en un entorno de producción
en Internet todos los usuarios con
las misma sclaves establecidas por
defecto tendrán acceso a ese recurso
de clave compartida, y a cualquier tipo
de información que en él se guarde.
Imitación de IP Una máquina remota actúa como La suplantación de identidad es tan
un nodo en su red local, busca difícil porque involucra la necesidad
debilidades en sus servidores, e del atacante de tener que predecir los
instala un programa de puerta trasera números de secuencia de TCP/IP para
o troyano para ganar el control de los coordinar una conexión a los sistemas
recursos de la red. remotos, pero hay varias herramientas
disponibles para asistir a los atacantes
a realizar esa tarea.
Depende del tipo de servicios que
se estén ejecutando en el sistema
de destino (como por ejemplo rsh,
telnet, FTP y demás), si es que
utilizan técnicas de autenticación
basadas en la fuente, no son
recomendadas si se las compara con
PKI, o con otras formas de autenticar
encriptaciones utilizadas en ssh, o
SSL/TLS.

16
Ataques y debilidades comunes

Debilidades Descripción Notas


Escuchas La escucha se realiza para la Este tipo de ataque funciona
recolección de datos que pasan entre principalmente con protocolos de
dos nodos activos en una red. transmisión de texto plano tales como
las transferencias Telnet, FTP y HTTP.
El atacante remoto debe tener acceso
a un sistema comprometido en una
LAN para poder realizar el ataque;
usualmente el atacante usó un ataque
activo (tal como la suplantación de
IP o la del hombre en el medio) para
comprometer un sistema en la LAN.
Las medidas preventivas incluyen
servicios con cambio de claves
criptográficas, contraseñas de un
solo uso, o autenticación encriptada
para prevenir la adivinación de
contraseñas; una fuerte encriptación
durante la transmisión también es
recomendada.
Debilidades de Un atacante encuentra una brecha Los servicios basados en HTTP como
servicios o hueco en un servicio que corre CGI son vulnerables a ejecuciones
a través de Internet; a través de desde comandos remotos, y aún a
esta vulnerabilidad, el atacante accesos desde consolas interactivas.
compromete el sistema entero y Incluso si el servicio HTTP lo ejecuta
cualquier dato que pueda contener, un usuario sin demasiados privilegios,
y puede posiblemente comprometer como "nadie", algunos datos pueden
otros sistemas en la red. ser leídos, como por ejemplo, los
archivos de configuración y mapas
de red. El atacante también puede
iniciar un ataque de denegación de
servicio que agotará los recursos del
sistema, o lo dejará inutilizable por
otros usuarios.
Los servicios algunas veces pueden
presentar debilidades que no son
visibles a lo largo de los procesos
de desarrollo o de prueba. Estas
vulnerabilidades pueden darle a un
atacante un control administrativo
total, como es el caso de un
desbordamiento del búfer: los
atacantes destruyen un sistema
utilizando valores arbitrarios que
agotan la memoria del búfer de una
determinada aplicación, y obteniendo
así una consola desde la cual poder
ejecutar comandos.
Los administradores se deben
asegurar que los servicios no corren

17
Capítulo 1. Resumen acerca de la seguridad

Debilidades Descripción Notas


como el usuario root, y deben vigilar
los parches y actualizaciones de errata
de las aplicaciones de vendedores u
organizaciones de seguridad como
CERT y CVE.
Debilidades de Los atacantes encuentran fallas en las Las estaciones de trabajo y los
aplicaciones aplicaciones de un equipo de escritorio equipos personales son ideales
o de una estación de trabajo (como para ser vulnerados dado que sus
ser por ejemplo un cliente de correo usuarios no tienen ni la experiencia
electrónico), y ejecutan un código ni el conocimiento para prevenir o
cualquiera, colocan caballos troyanos detectar irregularidades. Es de suma
para futuros daños, o simplemente importancia informar a los individuos
destruyen el sistema. Pueden ocurrir del riesgo que corren cada vez que
futuras catástrofes si la estación de instalan software no autorizado, o
trabajo vulnerada posee privilegios cuando abren archivos adjuntos de
administrativos sobre el resto de la correos electrónicos no solicitados.
red. Pueden ser implementados
"salvavidas" tales como configurar
al cliente de correo electrónico que
se esté utilizando de modo tal que
no abra ni ejecute archivos adjuntos
en forma automática. Además,
la actualización automática de la
estación de trabajo a través de
Red Hat Network o mediante algún
otro servicio de administración de
sistemas, es una forma de aliviar la
tarea de las descargas de seguridad
de tipo multi usuario.
Ataques de Un atacante, o un grupo de El caso DoS más informado en los
Negación de atacantes coordinados contra la Estados Unidos ocurrió en el año
Servicio (DoS) red o los recursos de red de alguna 2000. Diferentes sitios comerciales y
organización, enviando paquetes gubernamentales con alta densidad
no autorizados al equipo elegido (ya de tráfico quedaron incapacitados
sea un servidor, un enrutador o una por un ataque coordinado de flujo
estación de trabajo). Esto obliga al de ping, utilizando diversos sistemas
recurso atacado a quedar inhabilitado con conexiones de banda ancha
para los usuarios legítimos. previamente vulnerados, que actuaban
como zombies, o que redireccionaban
nodos de transmisión.
Los paquetes fuentes son usualmente
moldeados (así como reenviados),
investigando sobre la verdadera fuente
del ataque.
Los avances en el filtrado de la
entrada (IETF rfc2267) con iptables
y con sistemas detección de
intrusos como snort ayudan a los

18
Actualizaciones de seguridad

Debilidades Descripción Notas


administradores a rastrear y prevenir
ataques de DoS distribuido.
Tabla 1.1. Debilidades comunes

1.5. Actualizaciones de seguridad


A medida que las deficiencias en la seguridad se van descubriendo, el software involucrado debe
ser actualizado, y limitar así cualquier tipo de potencial riesgo. Si el software es parte de un paquete
contenido en la distribución Fedora entonces soportada, Fedora está comprometida a liberar lo antes
posible las actualizaciones necesarias para solucionar las deficiencias del paquete en cuestión. A
menudo, los anuncios sobre alguna imperfección en algún aspecto de la seguridad son acompañados
de un parche (o código fuente que solucione el problema). Este parche es entonces aplicado al
paquete de Fedora, probado y liberado como una actualización considerada de tipo errata. Sin
embargo, si algún anuncio no incluye un parche, el desarrollador trabaja primero con el encargado del
software para poder solucionar el problema. Una vez que el problema haya sido resuelto, el paquete
es probado y liberado como una actualización de tipo errata.

Si se lanza una errata de actualización del software de su sistema, es altamente recomendado


actualizar los paquetes involucrados tan pronto como sea posible para minimizar la cantidad de
tiempo en que el sistema es potencialmente vulnerable.

1.5.1. Actualización de paquetes


Cuando se actualiza el software de un sistema, es importante descargar la actualización desde
una fuente confiable. Un atacante fácilmente puede recompilar un paquete con el mismo número
de versión que el que supuestamente debería solucionar el problema, pero con una nueva falla, y
liberarlo en Internet. Si esto sucede, utilizar medidas de seguridad como archivos verificadores contra
el RPM original, tampoco va a detectar la nueva falla. Sin embargo, es muy importante descargar
RPMs solo desde fuentes confiables, como por ejemplo desde Fedora, y verificar la firma del paquete
para confirmar su integridad.

Nota
Fedora incluye un ícono en panel que muestra una alerta cada vez que exista una
actualización disponible para el sistema.

1.5.2. Verificación de paquetes firmados


Todos los paquetes de Fedora están firmados con la clave GPG de Fedora. GPG viene de GNU
Privacy Guard (guardia de la privacidad de GNU), o GnuPG, un paquete de software libre que se usa
para asegurar la autenticidad de archivos a distribuir. Por ejemplo, una clave privada (clave secreta)
bloquea el paquete mientras que la clave pública desbloquea y verifica el paquete. Si la clave pública
distribuida por Fedora no coincide con la clave privada durante la verificación del RPM, el paquete
puede haber sido alterado y por lo tanto no es confiable.

La utilidad RPM de Fedora intenta verificar automáticamente la firma GPG de un paquete RPM antes
de instalarlo. Si la clave GPG no está instalada, se debe instalar desde una ubicación estática y
segura, como el CD-ROM o DVD de instalación de Fedora.

19
Capítulo 1. Resumen acerca de la seguridad

Asumiendo que el disco está montado en /mnt/cdrom, use el siguiente comando para importarla
dentro del administrador de claves (keyring, una base de datos de claves confiables en el sistema):

rpm --import /mnt/cdrom/RPM-GPG-KEY

Para mostrar una lista de todas las claves instaladas para la verificación de RPM, ejecute el siguiente
comando:

rpm -qa gpg-pubkey*

La salida será similar a la siguiente:

gpg-pubkey-db42a60e-37ea5438

Para mostrar los detalles de alguna clave en particular, use el comando rpm -qi seguido de la salida
del comando previo, como en este ejemplo:

rpm -qi gpg-pubkey-db42a60e-37ea5438

Es extremadamente importante verificar la firma de los archivos RPM antes de instalarlos para
asegurar que no hayan sido alterados desde la fuente original de los paquetes. Para verificar todos
los paquetes descargados de una vez, emita el siguiente comando:

rpm -K /tmp/updates/*.rpm

Para cada paquete, si la llave GPG se verifica exitosamente, el comando devuelve gpg OK. Sino,
asegúrese de estar utilizando la llave pública correcta de Fedora, así como la fuente del contenido.
Los paquetes que no pasan las verificaciones GPG no deberían ser instalados, ya que podrían haber
sido alterados.

Después de verificar la clave GPG y de descargar todos los paquetes asociados con el informe de
errata, instale los paquetes como root en el indicador de la terminal.

1.5.3. Instalación de paquetes firmados


La instalación de la mayoría de los paquetes se puede hacer en forma segura (excepto para los
paquetes del kernel) emitiendo el siguiente comando:

rpm -Uvh /tmp/updates/*.rpm

Para paquetes del kernel, use el siguiente comando:

rpm -ivh /tmp/updates/<kernel-package>.

En el ejemplo anterior, reemplace <kernel-package> con el nombre del RPM del kernel.

Una vez que la máquina ha sido iniciada sin problema usando el nuevo kernel, el kernel viejo se
puede eliminar usando el siguiente comando:

rpm -e <old-kernel-package>

En el ejemplo anterior, reemplace <old-kernel-package> con el nombre del RPM del kernel viejo.

20
Aplicación de los cambios

Nota
No es necesario que el último kernel sea eliminado. El cargador de arranque por
defecto, GRUB, permite tener varios kernels instalados, luego elija uno desde el
menú de arranque al iniciar.

Importante
Antes de instalar cualquier errata de seguridad, asegúrese de leer las instrucciones
especiales contenidas en el informe de errata, y ejecútelas apropiadamente. Visite
Sección 1.5.4, “Aplicación de los cambios” para obtener instrucciones generales
sobre la aplicación de las modificaciones realizadas por una actualización de errata.

1.5.4. Aplicación de los cambios


Después de descargar e instalar las erratas de seguridad y actualizaciones, es importante dejar de
usar el software viejo y comenzar a usar el nuevo. Cómo se hace esto depende del tipo de software
que se haya actualizado. La siguiente lista muestran los items de la categoría general de software
y provee instrucciones para usar las versiones actualizadas después de cada actualización de
paquetes.

Nota
En general, reiniciar el sistema es la mejor forma de asegurarse que la última versión
de un paquete de software esté en uso; sin embargo, esta opción no es siempre
necesaria, o está disponible sólo para el administrador del sistema.

Aplicaciones
Las aplicaciones del espacio del usuario son todos los programas que se pueden usar por el
usuario común. Típicamente, tales aplicaciones se usan solamente cuando un usuario, programa
o tarea automatizada los inicia, y no están activas por períodos largos de tiempo.

Una vez que la aplicación del espacio del usuario es actualizado, detenga cualquier instancia de
la aplicación en el sistema y lance el programa de nuevo para usar la versión actualizada.

Kernel
El kernel es el componente de software principal del sistema operativo Fedora. Maneja el acceso
a la memoria, al procesador y a los periféricos, así como la planificación de todas las tareas.

Dado a su rol central, el kernel no se puede reiniciar sin detener la computadora. Por lo tanto, una
versión actualizada del kernel no se puede usar hasta que la computadora no sea reiniciada.

Bibliotecas compartidas
Las bibliotecas compartidas son unidades de códigos, como glibc, que se usan por un número
de aplicaciones y servicios. Las aplicaciones que usan una biblioteca compartida normalmente
cargan el código compartido cuando la aplicación se inicia, por lo que todas las aplicaciones que
usen la versión actualizada de la biblioteca se deben detener y reiniciar.

Para determinar qué aplicaciones en ejecución usan una biblioteca particular, use el comando
lsof como en el siguiente ejemplo:

21
Capítulo 1. Resumen acerca de la seguridad

lsof /lib/libwrap.so*

Este comando devuelve una lista con todos los programas en ejecución que utilizan
encapsuladores TCP para control de acceso del equipo. Por lo tanto, cualquier programa listado
debe ser detenido y reiniciado si el paquete tcp_wrappers es actualizado.

Servicios SysV
Los servicios SysV son programas de servidor persistentes lanzados en algún momento del
proceso de inicialización del equipo. Algunos ejemplos de servicios SysV son sshd, vsftpd, y
xinetd.

Debido a que estos programas generalmente continúan en la memoria todo el tiempo en que
el sistema se esté ejecutando, cada servicio SysV actualizado debe ser detenido luego que el
paquete haya sido renovado. Esto puede hacerse utilizando la Herramienta de configuración
de servicios, o logueandose como usuario root en una consola y ejecutando el comando /sbin/
service como en el ejemplo siguiente:

/sbin/service <service-name> restart

En el ejemplo anterior, reemplace <service-name> con el nombre del servicio, como ser por
ejemplo, sshd.

Servicios xinetd
Los servicios controlados por el súper servicio xinetd solo se ejecutan cuando exista una
conexión activa. Ejemplos de servicios controlados por xinetd osn Telnet, IMAP, y POP3.

Debido a que xinetd inicia nuevas instancias de estos servicios cada vez que se reciba un
nuevo pedido, las conexiones que tengan lugar luego de una actualización serán administradas
por el software actualizado. Sin embargo, si existen conexiones activas en el momento en
que el servicio controlado por xinetd es actualizado, estas conexiones seguirán funcionando
controladas por la versión anterior.

Para detener instancias antiguas de un servicio particular controlado por xinetd, actualice el
paquete para el servicio, y luego detenga todos los procesos que se encuentren en ejecución.
Para determinar si el proceso está ejecutándose, utilice el comando ps y luego los comandos
kill o killall para detener las instancias actuales del servicio.

Por ejemplo, si los paquetes errata de seguridad imap son liberados, actualice los paquetes, y
luego, como usuario root, ingrese el siguiente comando en una terminal:

ps -aux | grep imap

Este comando devuelve todas las sesiones IMAP activas. Las sesiones individuales pueden
determinarse con el siguiente comando:

kill <PID>

Si esto falla a terminar la sesión, use el siguiente comando en su lugar:

kill -9 <PID>

En los ejemplos anteriores, para una sesión IMAP reemplace <PID> con el número de
identificación del proceso (que puede encontrarlo en la segunda columna del comando ps).

22
Aplicación de los cambios

Para detener todas las sesiones IMAP activas, ingrese el siguiente comando:

killall imapd

23
24
Asegurando su Red
2.1. Seguridad de la estación de trabajo
Asegurar un entorno Linux comienza con la estación de trabajo. Ya sea bloqueando una máquina
personal, o asegurando un sistema corporativo, cualquier política de seguridad empieza con la
computadora individual. La seguridad de una red de computadoras es la misma que la de su nodo
más débil.

2.1.1. Evaluación de la seguridad de la estación de trabajo


Cuando se evalúa la seguridad de una estación de trabajo Fedora, considere los siguientes aspectos:

• Seguridad del BIOS y del gestor de arranque — ¿Puede un usuario no autorizado tener acceso a la
máquina e iniciarla como usuario único, o en modo de rescate, sin ninguna contraseña?

• Seguridad de la contraseña — ¿Qué tan seguras son las contraseñas de usuario en la máquina?

• Controles administrativos — ¿Quién posee una cuenta en el sistema y cuánto control administrativo
posee?

• Servicios de red disponibles — ¿Qué servicios están escuchando peticiones activas de la red?
¿Deberían estar ejecutándose?

• Cortafuegos personals — En caso de necesitarse alguno, ¿qué tipo de cortafuegos son


necesarios?

• Herramientas de seguridad en la comunicación mejoradas — ¿Qué herramientas deberían


utilizarse para comunicarse entre estaciones de trabajo, y cuáles deberían evitarse?

2.1.2. Seguridad en el BIOS y en el gestor de arranque


Una protección del BIOS (o de su equivalente) y del gestor de arranque mediante una contraseña,
puede prevenir que el sistema sea iniciado mediante la utilización de medios removibles, o que se
obtengan privilegios de usuario root, por cualquier usuario no autorizado que tenga acceso físico al
él. Las medidas de seguridad que debería adoptar para protegerse de este tipo de ataques depende
tanto de la calidad de la información de la estación de trabajo, como de la ubicación de la máquina.

Por ejemplo, si una máquina es utilizada en algún tipo de evento, y no contiene ninguna clase de
información importante, entonces no sería prioritario prevenir tales ataques. Sin embargo, si la laptop
de algún empleado con claves SSH privadas y no cifradas de la red de la compañía es descuidada
en el mismo evento anterior, podría permitir una falla importante en la seguridad, con consecuencias
para la compañía entera.

Por otro lado, si la estación de trabajo se encuentra ubicada en un lugar al cuál tienen acceso solo
personas autorizadas o de confianza, en ese caso asegurar el BIOS o el gestor de arranque podría no
ser necesario.

25
Capítulo 2. Asegurando su Red

2.1.2.1. Contraseña BIOS


Las dos razones fundamentales para proteger con una contraseña el BIOS de una computadora son
1
:

1. Evitar modificaciones a la configuración del BIOS — Si un intruso tiene acceso al BIOS, puede
configurarlo para iniciarse desde un diskette o CD-ROM. Esto hace que sea posible para él
ingresar en modo rescate o en modo de único usuario, lo que a su vez permite que inicie
procesos a elección en el sistema, o que pueda copiar información importante.

2. Evitar el inicio del sistema — Algunas BIOS permiten protección mediante contraseñas del
proceso de arranque. Cuando es activado, el atacante se ve obligado a ingresar una contraseña
antes que el BIOS ejecute el gestor de arranque.

Debido a que los métodos para establecer una contraseña de BIOS son diferentes de acuerdo a cada
fabricante, consulte el manual de la computadora para obtener instrucciones específicas.

Si no recuerda la contraseña del BIOS, puede ser reseteada o bien mediante jumpers en la placa
madre, o bien desconectando la batería del CMOS. Por esta razón, es una buena costumbre bloquear
el gabinete de la computadora siempre que sea posible. Sin embargo, consulte el manual de la
computadora o de la placa madre antes de intentar desconectar la batería del CMOS.

2.1.2.1.1. Asegurando plataformas que no sean de tipo x86


Otras arquitecturas utilizan diferentes programas para realizar tareas de bajo nivel, apenas
equivalentes a las que realiza el BIOS en sistemas x86. Por ejemplo, las computadoras Intel®
Itanium™ utilizan el shell Interfaz de firmware extensible (EFI, por las iniciales en inglés de Extensible
Firmware Interface).

Para obtener instrucciones acerca de la protección mediante contraseñas de programas similares al


BIOS en otras arquitecturas, consulte las instrucciones del fabricante.

2.1.2.2. Contraseñas del gestor de arranque


Las principales razones por las que proteger un gestor de arranque de Linux son las siguientes:

1. Prevenir el ingreso en modo de único usuario — Si los atacantes pueden iniciar el sistema en
modo de usuario único, automáticamente se registran como usuarios root sin que para ello se les
solicite una contraseña de usuario root.

2. Prevenir el acceso a la consola del GRUB — Si la máquina en cuestión utiliza el GRUB como su
gestor de arranque, un atacante puede utilizar la interfaz del editor del GRUB para modificar sus
configuraciones, o para reunir información utilizando el comando cat.

3. Prevenir el acceso a sistemas operativos no seguros — Si el sistema en cuestión es de arranque


dual, un atacante puede seleccionar uno de los sistemas en el momento del inicio (por ejemplo,
DOS), que ignora controles de acceso y permisos de archivo.

Fedora por defecto instala el gestor de arranque GRUB en la plataforma x86. Para una exposición
detallada del GRUB, consulte la Guía de Instalación de Fedora.

Dado que el BIOS de cada sistema es diferente de acuerdo a su fabricante, algunos podrían no tener soporte para protección
mediante contraseña de algún tipo, mientras que otros podrían solo soportar un tipo pero no otro.

26
Seguridad en el BIOS y en el gestor de arranque

2.1.2.2.1. Protección de GRUB con contraseña


Puede configurar el GRUB para prevenir los dos primeros problemas descritos en la Sección 2.1.2.2,
“Contraseñas del gestor de arranque”, añadiendo una directiva de contraseña a su archivo de
configuración. Para hacerlo, primero elija una contraseña poderosa, abra una terminal, regístrese
como usuario root, e ingrese el siguiente comando:

/sbin/grub-md5-crypt

Cuando se le solicite, ingrese la contraseña del GRUB y presione la tecla Intro. Con esto obtendrá
un hash MD5 de la contraseña.

A continuación, edite el archivo de configuración del GRUB /boot/grub/grub.conf. Abra el


archivo y debajo de la línea timeout en la sección principal del documento, añada la siguiente:

password --md5 <password-hash>

2
Reemplace <password-hash> con el valor obtenido por el comando /sbin/grub-md5-crypt .

La próxima vez que el sistema sea iniciado, el menú del GRUB evitará que se ingrese al editor, o a la
interfaz de comandos, sin haber presionado primero la tecla p, seguida de la contraseña del GRUB

Desafortunadamente, esta solución no previene que un atacante inicie el equipo con un sistema
operativo no seguro, si es que existe un entorno de arranque dual. Para esto, debe ser editada una
parte diferente del archivo /boot/grub/grub.conf.

Ubique la línea title del sistema operativo que desea asegurar, y añada otra línea con la directiva
lock inmediatamente debajo de ella.

Para un sistema DOS, el bloque de líneas pertinente debería empezar de manera similar a la
siguiente:

title DOS lock

Advertencia
Una línea password debe estar presente en la sección principal del archivo /boot/
grub/grub.conf para el correcto funcionamiento de este método. De lo contrario,
un atacante puede acceder a la interfaz del editor del GRUB y eliminar la línea de
bloqueo.

Para crear una contraseña diferente para un kernel particular o sistema operativo, añada la línea
lock a las presentes seguida de una línea de contraseña.

Cada porción de líneas protegidas con una contraseña única deberían empezar de manera similar al
siguiente ejemplo:

title DOS lock password --md5 <password-hash>

el GRUB también acepta contraseñas no cifradas, pero es recomendable que un hash MD5 sea utilizado para añadir
seguridad.

27
Capítulo 2. Asegurando su Red

2.1.3. Seguridad de contraseñas


Las contraseñas son el método primario que Fedora utiliza para verificar la identidad de los usuarios.
Este es el motivo por el que la seguridad de la contraseña es tan importante para la protección del
usuario, la estación de trabajo y la red.

Por motivos de seguridad, el programa de instalación configura el sistema para utilizar Message-
Digest Algorithm (MD5) y ocultar las contraseñas. Es muy recomendable que no modifique estas
configuraciones.

Si las contraseñas MD5 son deseleccionadas durante la instalación, el antiguo formato Data
Encryption Standard (DES) es utilizado. Este formato limita las contraseña a ocho caracteres
alfanuméricos (deshabilitando los signos de puntuación y otros caracteres especiales), y proveyendo
un modesto nivel de encriptado de 56 bits.

Si durante la instalación se deselecciona el ocultamiento de contraseñas, todas las contraseñas son


almacenadas en un hash unidireccional en el archivo de lectura pública /etc/passwd, lo que hace
que el sistema sea vulnerable a los ataques de descubrimiento de contraseñas fuera de línea. Si
un intruso puede obtener acceso a la máquina como un usuario regular, puede copiar el archivo /
etc/passwd a su propio equipo, y ejecutar cualquier cantidad de programas de descubrimiento de
contraseñas sobre él. Si existe una contraseña no segura en el archivo, es sólo cuestión de tiempo
antes que el atacante la encuentre.

El ocultamiento de contraseñas elimina este tipo de ataques almacenando el hash de contraseña en


el archivo /etc/shadow, que solo puede ser leído por el usuario root.

Esto obliga a los potenciales atacantes a intentar descubrir las contraseñas remotamente,
registrándose en un servicio de red en la máquina, como por ejemplo SSH o FTP. Esta clase de
ataque de tipo fuerza bruta es mucho más lento y deja un rastro obvio, consistente en los cientos de
intentos fallidos de registro almacenados en los archivos del sistema. Por supuesto, si el atacante
inicia un ataque en medio de la noche en un sistema con contraseñas débiles, podría obtener acceso
antes del amanecer y editar los archivos de registro para eliminar sus huellas.

Además del las cuestiones acerca del formato y del almacenamiento, está el problema de los
contenidos. La única cosa realmente importante que un usuario puede hacer para proteger su cuenta
de ataques para descubrir su contraseña, es crear una contraseña poderosa.

2.1.3.1. Creando contraseñas poderosas


Para crear una contraseña segura, es una buena idea seguir las siguientes indicaciones:

• No utilice solo palabras o números — Nunca utilice solo números o palabras en contraseñas.

Algunos ejemplos inseguros incluyen los siguientes:

• 8675309

• juan

• hackeame

• No use palabras reconocibles — Palabras como nombres propios, palabras de diccionario,


o incluso términos de shows de televisión, o de novelas, deberían ser evitados. Aún si están
complementadas con números.

Algunos ejemplos inseguros incluyen los siguientes:

28
Seguridad de contraseñas

• martin1

• DS-9

• tevez123

• No utilice palabras de otros idiomas — Los programas de descubrimiento de contraseñas a menudo


verifican sobre listas de palabras que incluyen diccionarios de muchos idiomas. Confiar en idiomas
extranjeros para establecer contraseñas seguras, no es algo aconsejable.

Algunos ejemplos inseguros incluyen los siguientes:

• cheguevara

• bienvenido1

• 1dumbKopf

• No utilice terminología hacker — Si usted piensa que es intocable porque utiliza terminología
hacker — también denominada lengua l337 (LEET) — en su contraseña, piénselo dos veces,
Muchas listas de palabras incluyen lengua LEET.

Algunos ejemplos inseguros incluyen los siguientes:

• H4X0R

• 1337

• No use Información Personal — Evite usar cualquier tipo de información personal en sus
contraseñas. Si el atacante conoce su identidad, la tarea de deducir su contraseña se vuelve más
fácil. La siguiente es una lista de los tipos de información a evitar cuando se crea una contraseña:

Algunos ejemplos inseguros incluyen los siguientes:

• Su nombre

• El nombre de su mascota

• El nombre de un miembro de la familia

• Cualquier fecha de cumpleaños

• Su número de teléfono o su código postal

• No invierta palabras reconocibles — Los buenos verificadores de contraseña siempre invierten


palabras comunes, por lo que la inversión de un mala contraseña no la hace más segura.

Algunos ejemplos inseguros incluyen los siguientes:

• R0X4H

• nauj

• 9-DS

• No escriba su contraseña — Nunca guarde su contraseña en papel. Es más seguro memorizarla.

29
Capítulo 2. Asegurando su Red

• No use la misma contraseña para todas las computadoras — es importante crear contraseñas
distintas para cada máquina. De esta forma, si un sistema está comprometido, todas sus
computadoras no estarán inmediatamente en riesgo.

Los siguientes consejos le ayudarán a crear una contraseña fuerte:

• La contraseña debe tener al menos 8 caracteres de largo — Cuanto más larga la contraseña,
mejor. Si usa contraseñas MD5, deben ser de 15 caracteres o más. Con contraseñas DES, use la
longitud máxima (ocho caracteres).

• Mezcle letras en mayúsculas y minúsculas — Fedora diferencia entre mayúsculas y minúsculas,


por lo que su mezcla mejora la fortaleza de la contraseña.

• Mezcle letras con números — Agregar números a la contraseña mejora la fortaleza de la misma,
especialmente cuando se los agrega en el medio (no al principio ni al final).

• Incluya caracteres no alfanuméricos — Caracteres especiales como &, $, y > pueden mejorar
mucho la fortaleza de la contraseña (esto no es posible cuando se utilicen contraseñas DES).

• Elija una contraseña que pueda recordar — La mejor contraseña del mundo no mejora nada si
no la puede recordar; use siglas u otros dispositivos memotécnicos para ayudarle a recordar las
contraseñas.

Con todas estas reglas, puede parecer difícil crear una contraseña que cumpla al mismo tiempo
con todos los criterios pedidos para una buena contraseña, y que evite la creación de una mala.
Afortunadamente, hay algunos pasos que se pueden tomar para generar una contraseña segura y
fácil de recordar.

2.1.3.1.1. Metodología para la creación de una contraseña segura


Hay muchos métodos que se pueden usar para crear contraseñas seguras. Uno de los más populares
involucra las siglas. Por ejemplo:

• Piense en una frase fácil de recordar, tal como:

"por el río y a través del bosque, vamos a la casa de la abuela."

• Luego, conviértala en una sigla (incluyendo la puntuación).

otrattw,tghwg.

• Agregue complejidad sustituyendo números y símbolos por letras en la sigla. Por ejemplo, sustituya
7 por t el arroba (@) por a:

o7r@77w,7ghwg.

• Agregue más complejidad poniendo en mayúsculas al menos una letra, tal como la B.

o7r@77w,7gHwg.

• Finalmente, no use nunca la contraseña ejemplo anterior para ningún sistema.

La creación de contraseñas seguras es imperativo, y su apropiada administración es igual de


importante, especialmente para administradores de sistemas dentro de organizaciones grandes.
La siguiente sección detalla las buenas prácticas para crear y administrar las contraseñas de los
usuarios dentro de una organización.

30
Seguridad de contraseñas

2.1.3.2. Creación de contraseñas de usuarios dentro de una organización


Si una organización tiene un gran número de usuarios, los administradores de sistema tienen dos
opciones básicas disponibles para obligar al uso de contraseñas buenas. Pueden crear contraseñas
para los usuarios, o permitirles crear sus propias contraseñas, pero verificando que sean de una
calidad aceptable.

La creación de contraseñas para usuarios asegura que las contraseñas sean buenas, pero se vuelve
una tarea intimidante a medida que la organización crece. También aumenta el riesgo de que los
usuarios escriban sus contraseñas.

Por estas razones, la mayoría de los administradores de sistema prefieren que sus usuarios creen
sus propias contraseñas, pero verificar activamente que sean buenas y, en algunos casos, forzarlos a
cambiarlas periódicamente mediante el establecimiento de un período determinado de validez.

2.1.3.2.1. Obligando a usar contraseñas poderosas


Para proteger la red de intrusos, es una buena idea que los administradores del sistema comprueben
que las contraseñas utilizadas dentro de una organización sean buenas y potentes. Cuando se les
pida a los usuarios crear o modificar una contraseña, pueden utilizar la herramienta de línea de
comando passwd, que es compatible con el Administrador de módulos de autenticación conectables
(PAM, por las iniciales en inglés de Pluggable Authentication Manager), y por lo tanto verifica si la
contraseña es demasiado corta o demasaido fácil de descubrir. Esta comprobación es realizada
utilizando el módulo PAM pam_cracklib.so. Ya que PAM es personalizable, es posible añadir más
verificadores de la integridad de las contraseñas, como ser por ejemplo, pam_passwdqc (disponible
en http://www.openwall.com/passwdqc/), o escribir un módulo nuevo. Para conocer una lista de
módulos PAM disponibles, vea http://www.kernel.org/pub/linux/libs/pam/modules.html. Para obtener
mayor información acerca de PAM, vaya a la Sección 2.4, “Módulos de autenticación conectables
(PAM, por las iniciales en inglés de Pluggable Authentication Modules)”.

La verificación de la contraseña que se realiza al momento de su creación, no permite saber con tanta
certeza si una contraseña es débil, cosa que sí se puede verificar exactamente con la ejecución sobre
ellas de un programa de descubrimiento de contraseñas.

Muchos programas de descubrimiento de contraseñas están disponibles para ejecutarse en Fedora,


aunque ninguno viene con el sistema operativo. A continuación ofrecemos una pequeña lista con
algunos de los programas de descubrimiento de contraseñas más populares:

• John The Ripper — Un programa de descubrimiento de contraseña rápido y flexible. Permite el


uso de múltiples listas de palabras y puede descubrir contraseñas por fuerza bruta. Está disponible
en línea en http://www.openwall.com/john/.

• Crack — Tal vez el software de descubrimiento de contraseñas más conocido, Crack es también
muy rápido, aunque no tan fácil de usar como John The Ripper. Se lo puede encontrar en línea en
http://www.crypticide.com/alecm/security/c50-faq.html.

• Slurpie — Slurpie es similar a John The Ripper y a Crack, pero se diseñó para correr en varias
computadoras a la vez, creando un ataque de descubrimiento de contraseñas distribuido. Se
puede encontrar junto con un número de otras herramientas de evaluación de seguridad al ataque
distribuído, en línea en http://www.ussrback.com/distributed.htm.

31
Capítulo 2. Asegurando su Red

Advertencia
Siempre obtenga una autorización por escrito antes de intentar descubrir
contraseñas dentro de una organización

2.1.3.2.2. Frases de acceso


Las frases de acceso y las contraseñas son la piedra angular de la seguridad en la mayoría de los
sistemas de hoy. Desafortunadamente, las técnicas como la biometría y la autenticación de tipo dos-
factores no se han vuelto principales en la mayoría de los sistemas. Si las contraseñas van a ser
utilizadas para asegurar un sistema, entonces el uso de frases de acceso debe ser considerado. Las
frases de acceso son más largas que las contraseñas y proveen una mejor protección, aún cuando se
implementan con caracteres no estándares como los números y los símbolos.

2.1.3.2.3. Edad de las contraseñas


El envejecimiento de las claves es otra técnica usada por los administradores del sistema para
defenderlo de malas contraseñas dentro de una organización. El envejecimiento de la contraseña
significa que después de un período especificado (normalmente 90 días), el usuario debe crear
una nueva contraseña. La idea detrás de este método es que si el usuario es forzado a cambiar
su contraseña periódicamente, una contraseña descubierta sería útil para un intruso por un tiempo
limitado. La contra del envejecimiento es que los usuarios, seguramente, anotarán en un papel sus
contraseñas.

Hay dos programas principales usados para especificar el envejecimiento de contraseñas bajo
Fedora: el comando chage o la aplicación gráfica Administración -> Usuarios y Grupos (system-
config-users).

La opción -M del comando chage especifica el número máximo de días en los cuales será válida
la contraseña. Por ejemplo, para definir que la contraseña del usuario venza en 90 días, utilice el
siguiente comando:

chage -M 90 <username>

En el comando de arriba, reemplace <username> con el nombre del usuario. Para deshabilitar el
vencimiento de la contraseña, es tradicional usar el valor 99999 espués de la opción -M (esto es
cerca de 273 años).

También puede usar el comando chage en modo interactivo para modificar el envejecimiento de
varias contraseñas y detalles de cuenta. Use el siguiente comando para ingresar en modo interactivo:

chage <username>

El siguiente es un ejemplo de la sesión interactiva usando este comando:

[root@myServer ~]# chage davido


Changing the aging information for davido
Enter the new value, or press ENTER for the default
Minimum Password Age [0]: 10
Maximum Password Age [99999]: 90
Last Password Change (YYYY-MM-DD) [2006-08-18]:
Password Expiration Warning [7]:
Password Inactive [-1]:

32
Controles administrativos

Account Expiration Date (YYYY-MM-DD) [1969-12-31]:


[root@myServer ~]#

Vaya a la página man de chage para más información sobre las opciones disponibles.

También se puede usar la aplicación Usuarios y Grupos para crear políticas de envejecimiento
de contraseñas, como sigue. Nota: necesita los privilegios de administrador para realizar este
procedimiento.

1. Haga clic en el menú Sistema en el panel, apunte al menú Administración y luego haga clic
en Usuarios y Grupos para mostrar el Aministrador de Usuarios. Alternativamente, teclee el
comando system-config-users en un indicador de shell.

2. Haga clic en la pestaña Usuarios y seleccione el usuario requerido de la lista de usuarios.

3. Haga clic en Propiedades en la barra de herramientas para mostrar el cuadro de diálogo de las
Propiedades del Usuario (o elija Propiedades en el menú Archivo).

4. Haga clic en la pestaña Información de la Contraseña, y seleccione la casilla de Activar


expiración de contraseña.

5. Ingrese el valor requerido en el campo Días requeridos antes de cambiar y haga clic en
Aceptar.

Figura 2.1. Especificación de las opciones de edad de las contraseñas

2.1.4. Controles administrativos


Cuando se administra una máquina personal, el usuario debe realizar algunas tareas como usuario
root, o mediante la adquisición de privilegios de usuario root, a través de un programa de tipo setuid,

33
Capítulo 2. Asegurando su Red

como lo son por ejemplo sudo o su. Se denomina un programa de tipo setuid a aquel que opera
con el ID de usuario (UID) del dueño del programa, en lugar del ID de usuario de quien sea que esté
utilizando el programa. Tales programas son identificados con una s en la sección de pertenencia del
listado de formato extenso, como se muestra en el siguiente ejemplo:

-rwsr-xr-x 1 root root 47324 May 1 08:09 /bin/su

Nota
La s puede figurar en mayúscula o en minúscula. Si aparece en mayúscula, significa
que el bit de los permisos subyacentes no ha sido definido.

Sin embargo, para el administrador del sistema de una organización, las elecciones deben ser
realizadas tomando en cuenta el tipo de acceso adminsitrativo que los usuarios dentro de la
organización deberían tener a su máquina. A través del módulo PAM denominado pam_console.so,
algunas actividades normalmente reservadas solo para el usuario root, como ser reiniciar o montar
medios removibles, son permitidas para el primer usuario que se registre en la consola física (para
obtener mayor información acerca del módulo pam_console.so, vaya a la Sección 2.4, “Módulos de
autenticación conectables (PAM, por las iniciales en inglés de Pluggable Authentication Modules)”. Sin
embargo, otras tareas importantes en el sistema, como ser modificar parámetros de red, configurar un
nuevo ratón, o montar dispositivos de red, no será posible realizarlas sin privilegios administrativos.
Como resultado, los administradores del sistema deben decidir cuánto acceso deben otorgarle a los
usuarios de la red.

2.1.4.1. Permitiendo accesos root


Si los usuarios de una organización son confiables y conocen acerca de computadoras, permitirles
acceso root no debería ser un problema. Esto significa que actividades menores, como añadir
dispositivos o configurar interfases de red podrían ser realizadas por los usuarios individuales,
quedando los administradores del sistema liberados y poder realizar tareas más importantes
relacionadas, por ejemplo, con la red o con la seguridad.

Por otro lado, darle accesos de root a usuarios individuales podría generar los siguientes
inconvenientes:

• Configuración errónea del equipo — Los usuarios con acceso root pueden desconfigurar sus
máquinas y necesitar asistencia para resolver problemas. O peor aún, podrían abrir agujeros en la
seguridad del sistema sin saberlo.

• Ejecutar servicios no seguros — Usuarios con acceso root podrían ejecutar servidores no seguros
en su máquina, como por ejemplo Telnet o FTP, poniendo en riesgo en forma potencial nombres de
usuarios o contraseñas. Estos servicios transmiten la información sobre la red en formato de texto
simple.

• Ejecutar archivos adjuntos de correos como usuarios root — Si bien son excepcionales, existen
virus de correo electrónico que afectan a los sistemas Linux. Sin embargo, el único momento en
que se convierten en una amenaza, es cuando son ejecutados por el usuario root.

2.1.4.2. Anulación del acceso como root


Si un administrador no se encuentra cómodo al permitir que los usuarios se registren como usuarios
root por estas razones, o por otras, la contraseña de usuario root debería ser mantenida en secreto, y

34
Controles administrativos

el acceso al nivel de ejecución 1, o al modo de usuario único, debería ser desactivado mediante una
protección del gestor de arranque a través de una contraseña (para obtener mayor información en
este aspecto, vea la Sección 2.1.2.2, “Contraseñas del gestor de arranque”).

Tabla 2.1, “Métodos para deshabilitar la cuenta root” describe las formas en que un administrador
puede asegurarse que no sean permitidos los ingresos como root:

Método Descripción Efectos No afecta


Cambio Edite el archivo /etc/ Previene acceso a la Programas que no
del shell passwd y cambie la terminal root y registra necesiten de una terminal,
para root. terminal de /bin/bash a cualquiera de tales como por ejemplo, clientes
/sbin/nologin. intentos. FTP, clientes de correo, y
Los siguientes programas muchos programas de tipo
están prevenidos al intentar setuid.
ingresar a la cuenta de Los siguientes programas
usuario root: no están prevenidos al
· login intentar acceder a la
· gdm cuenta root:
· kdm · sudo
· xdm · Clientes de FTP
· su · Clientes de correo
· ssh
· scp
· sftp
Deshabilitar Un archivo /etc/ Previene accesos a la Programas que no se
el acceso securetty vacío cuenta root mediante registran como root,
root previene los intentos de la consola o la red. Los pero que realizan tareas
mediante accesos root a cualquier siguientes programas administrativas mediante
cualquier dispositivo asociado con la son prevenidos al intentar programas de tipo
dispositivo computadora. acceder a la cuenta root: setuid, o mediante otros
de · login mecanismos.
consola · gdm Los siguientes programas
(tty) · kdm no están prevenidos al
· xdm intentar acceder a la
· Otros servicios de red que cuenta root:
abran una tty · su
· sudo
· ssh
· scp
· sftp
Deshabilitación
Edite el archivo /etc/ Prevenga el acceso root Esto sólo previene el
de las ssh/sshd_config y utilizando el conjunto de acceso root al conjunto de
opciones establezca el parámetro herramientas de OpenSSH. herramientas de OpenSSH.
de PermitRootLogin en no. Los siguientes programas
ingreso son prevenidos al intentar
como root acceder a a cuenta root:
por SSH. · ssh
· scp
· sftp

35
Capítulo 2. Asegurando su Red

Método Descripción Efectos No afecta


Utilice Edite el archivo para el Previene el acceso root a Programas y servicios que
PAM para servicio en cuestión en el los servicios de red que no son compatibles con
limitar el directorio /etc/pam.d/. son compatibles com PAM. PAM.
acceso Asegúrese que el archivo Los siguientes servcicios
root a los pam_listfile.so son prevenidos al intentar
servicios. sea requerido para acceder a la cuenta de
1
autenticación. root:
· Clientes de FTP
· Clientes de correo
· login
· gdm
· kdm
· xdm
· ssh
· scp
· sftp
· Cualquier servicio PAM
Para obtener más detalles, diríjase a la Sección 2.1.4.2.4, “Deshabilitando root usando PAM”.

Tabla 2.1. Métodos para deshabilitar la cuenta root

2.1.4.2.1. Deshabilitando la cuenta shell de root


Para prevenir que los usuarios se resgistren directamente como usuarios root, el administrador del
sistema puede establecer la consola de la cuenta de root como /sbin/nologin en el archivo /etc/
passwd. Esto previene el acceso a la cuenta root mediante comandos que necesiten una terminal,
como por ejemplo el comando su y los comandos ssh.

Importante
Los programas que no necesitan acceso a la consola, como son por ejemplo los
clientes de correo electrónico, o el comando sudo, pueden todavía tener acceso a la
cuenta root.

2.1.4.2.2. Deshabilitando conexiones como root


Para limitar en el futuro el acceso a la cuenta root, los administradores pueden deshabilitar la
posibilidad de registrarse como usuarios root editando el archivo /etc/securetty. Este archivo
muestra todos los dispositivos a los que el usuario root puede registrarse. Si el archivo no existiese,
el usuario root puede registrarse a través de cualquier dispositivo de comunicación en el sistema, ya
sea mediante la utilización de la consola, o mediante una interfaz de red. Esto es peligroso ya que
un usuario puede registrarse en su máquina como usuario root mediante Telnet, que transmite en la
red la contraseña en formato de texto simple. Por defecto, el archivo /etc/securetty de Fedora
sólo permite que el usuario root se registre en la consola asociada físicamente en la máquina. Para
prevenir al usuario root que se registre, elimine los contenidos de este archivo con la utilización del
siguiente comando:

echo > /etc/securetty

36
Controles administrativos

Advertencia
Un archivo /etc/securetty vacío no evita que el usuario root se registre
remotamente en el sistema utilizando el conjunto de herramientas OpenSSH, ya que
la consola no se inicia hasta luego de la autenticación.

2.1.4.2.3. Deshabilitando conexiones SSH como root


Los ingresos root mediante el protocolo SSH están deshabilitados por defecto en Fedora; sin
embargo, si esta opción ha sido activada, puede deshabilitarse nuevamente editando el archivo de
configuración del demonio SSH (/etc/ssh/sshd_config). Modifique la línea en la que se lee:

PermitRootLogin yes

leer como sigue:

PermitRootLogin no

Para que estos cambios tengan efecto, el demonio SSH debe ser reiniciado. Esto puede realizarse
mediante el siguiente comando:

kill -HUP `cat /var/run/sshd.pid`

2.1.4.2.4. Deshabilitando root usando PAM


PAM, a través del módulo /lib/security/pam_listfile.so, permite gran flexibilidad a la hora
de denegar cuentas específicas. El administrador puede utilizar este módulo para hacer referencia a
una lista de usuarios que no tienen permitido registrarse. Más abajo mostramos un ejemplo acerca
de cómo el módulo es utilizado por el servidor FTP vsftpd en el archivo de configuración de PAM
/etc/pam.d/vsftpd (el caracter \ al final de la primera línea en el ejemplo no es necesario si la
directiva se encuentra en una sola línea):

auth required /lib/security/pam_listfile.so item=user \


sense=deny file=/etc/vsftpd.ftpusers onerr=succeed

Esto le indica a PAM que consulte el archivo /etc/vsftpd.ftpusers y que niegue el acceso
al servicio al usuario listado. El administrador puede modificar el nombre en este archivo, y puede
tener diferentes listas para cada servicio, o utilizar una lista principal para negar el acceso a múltiples
servicios.

Si el administrador quiere negar el acceso a múltiples servicios, una línea similar puede ser añadida a
los archivos de configuración PAM, como por ejemplo, /etc/pam.d/pop y /etc/pam.d/imap para
clientes e correo, o /etc/pam.d/ssh para clientes SSH.

Para obtener mayor información acerca de PAM, vea la Sección 2.4, “Módulos de autenticación
conectables (PAM, por las iniciales en inglés de Pluggable Authentication Modules)”.

2.1.4.3. Limitando acceso como root


En lugar de negarle acceso completamente al usuario root, el admisnitrador podría querer permitirle el
acceso sólo mediante la utilización de programas de tipo setuid, como ser por ejemplo su o sudo.

37
Capítulo 2. Asegurando su Red

2.1.4.3.1. El comando su
Cuando un usuario ejecuta el comando su, se le solicita la contraseña de root y, luego de la
autenticación, le es dado un indicador de consola.

Una vez que se registra mediante el comando su, el usuario es el usuario root y tiene accesos
3
admisnitrativos absolutos en el sistema . Además, una vez que el usuario se ha convertido en root,
es posible la utilización del comando su para convertirse en cualquier otro usuario en el sistema sin
que por eso se le pida ningún tipo de contraseña.

Debido a la potencia de este programa, los administradores de una organización podrían desear
limitar a quiénes tienen acceso a este comando.

Una de las maneras más sencillas de hacer esto es añadiendo usuarios al grupo administrativo
especial denominado wheel. Para hacerlo, ingrese el siguiente comando como usuario root:

usermod -G wheel <username>

En el comando anterior, reemplace <username> con el nombre del usuario que desee añadir al
grupo wheel .

También puede utilizar de la siguiente manera el Administrador de usuarios para modificar


las pertenencias a los grupos. Nota: necesita privilegios de administrador para realizar este
procedimiento:

1. Haga clic en el menú Sistema en el panel, apunte al menú Administración y luego haga clic
en Usuarios y Grupos para mostrar el Aministrador de Usuarios. Alternativamente, teclee el
comando system-config-users en un indicador de shell.

2. Haga clic en la pestaña Usuarios y seleccione el usuario requerido de la lista de usuarios.

3. Haga clic en Propiedades en la barra de herramientas para mostrar el cuadro de diálogo de las
Propiedades del Usuario (o elija Propiedades en el menú Archivo).

4. Haga clic en la pestaña Grupos, seleccione la casilla para el grupo wheel, y luego haga clic en
OK. Vea la Figura 2.2, “Cómo agregar usuarios al grupo "wheel".”.

5. Abra el archivo de configuración PAM para el comando su (/etc/pam.d/su) en un editor de


textos, y elimine el comentario # de la siguiente línea:

auth required /lib/security/$ISA/pam_wheel.so use_uid

Este cambio significa que solo miembros del grupo administrativo wheel pueden usar este
programa.

Estos accesos aún están sujetos a las restricciones impuestas por SELinux, si es que se encuentra activo.

38
Controles administrativos

Figura 2.2. Cómo agregar usuarios al grupo "wheel".

Nota
El usuario root es por defecto miembro del grupo wheel.

2.1.4.3.2. El comando sudo


El comando sudo ofrece un nuevo punto de vista a la cuestión acerca de si otorgarle o no accesos
administrativos a los usuarios. Cuando un usuario confiable le anteponga el comando sudo a un
comando administrativo, le será pedida su propia contraseña. Entonces, cuando sea autenticado y
asumiendo que el comando le sea permitido, el comando administrativo en cuestión será ejecutado
como si este usuario fuera el usuario root.

Los formatos básicos del comando sudo son los siguientes:

sudo <command>

En el ejemplo anterior, <command> debería ser reemplazado por un comando que por lo general esté
reservado al usuario root, como ser por ejemplo, mount.

39
Capítulo 2. Asegurando su Red

Importante
Los usuarios del comando sudo deberían tener mucho cuidado y cancelar esta
herramienta antes de abandonar sus equipos, ya que en un período de tiempo de
cinco minutos, los usuarios sudo pueden utilizar el comando nuevamente sin que por
ello les sea pedida una contraseña. Esta configuración puede modificarse desde el
archivo de configuración /etc/sudoers.

El comando sudo permite un alto grado de flexibilidad. Por ejemplo, solo a los usuarios listados en el
archivo de configuración /etc/sudoers les es permitido utilizar el comando sudo, y el comando es
ejecutado en la terminal del usuario, no en una consola de usuario root. Esto significa que la consola
del usuario root puede ser completamente deshabilitada, como se indicó en Sección 2.1.4.2.1,
“Deshabilitando la cuenta shell de root”.

El comando sudo también ofrece un método de control sencillo de comprender. Cada autenticación
exitosa es registrada en el archivo /var/log/messages, y el comando ingresado, junto con el
nombre del usuario que lo ingresó, se registran en el archivo /var/log/secure.

Otra ventaja del comando sudo es que un administrador puede permitir a diferentes usuarios acceder
a comandos específicos de acuerdo a sus necesidades.

Los administradores que quieran editar /etc/sudoers, el archivo de configuración del comando
sudo, deberían utilizar el comando visudo.

Para otrogarle a un usario todos los privilegios admisnitrativos, ingrese visudo, y agregue una línea
similar a la siguiente en la sección de especificaciones de los privilegios del usuario:

juan ALL=(ALL) ALL

Este ejemplo indica que el usuario juan, puede utilizar el comando sudo desde cualquier equipo y
ejecutar cualquier comando.

El ejemplo que damos a continuación ilustra pequeños detalles posibles al configurar sudo:

%users localhost=/sbin/shutdown -h now

Este ejemplo indica que cualquier usuario puede ejecutar el comando /sbin/shutdown -h now,
siempre y cuando lo haga desde una consola.

La página man del archivo sudoers contiene una lista detallada de opciones.

2.1.5. Servicios de red disponibles


Si bien el acceso de los usuarios a controles administrativos es un problema importante para los
administradores del sistema dentro de una organización, controlar qué servicios de red son los que se
encuentran activos, es de importancia suprema para cualquiera que opere un sistema Linux.

Muchos servicios bajo Fedora se comportan como servidores de red. Si un servicio de red está
ejecutándose en una máquina, una aplicación de servidor (denominada demonio), está escuchando
las conexiones de uno o más puertos de red. Cada uno de estos servidores debería ser tratado como
una potencial vía de ingreso de atacantes.

40
Servicios de red disponibles

2.1.5.1. Riesgos a servicios


Los servicios de red puede plantear numerosos riesgos para sistemas Linux. A continuación
mostramos una lista con algunas de las cuestiones principales:

• Ataques de denegación de servicio (DoS, por las iniciales en inglés de Denial of Service Attacks )
— Al inundar un servicio con peticiones, un ataque de denegación de servicio puede dejar
inutilizable a un sistema, ya que este trata de registrar y de responder a cada petición.

• Ataque de denegación de servicio distribuido (DDoS, por las iniciales en inglés de Distributed
Denial of Service Attack) — Un tipo de ataque DoS que utiliza varias máquinas comprometidas
(que por lo general suelen ser varios miles) para dirigir un ataque coordinado sobre un servicio,
inundándolo con peticiones y haciendo que sea inutilizable.

• Ataques a las debilidades de los programas — Si un servidor está utilizando programas para
ejecutar acciones propias, como comúnmente lo hacen los servidores Web, un atacante puede
concentrarse en los scripts mal escritos. Este ataque a las debilidades de los programas puede
llevar a una condición de desbordamiento del búfer, o permitir que los atacantes modifiquen
archivos en el sistema.

• Ataques de desbordamiento del búfer — Los servicios que se conectan al rango de puertos que
va entre 0 y 1023, deben ser ejecutados como usuario administrativo. Si una aplicación puede
provocar un desbordamiento del búfer, un atacante puede obtener acceso al sistema como el
usuario que ejecuta el demonio. Debido a que los desbordamientos del búfer existen, los atacantes
utilizan herramientas automatizadas para identificar sistemas con debilidades, y una vez obtenido el
acceso, usan rootkits automatizados para mantener ese acceso al sistema.

Nota
La amenaza que representa la debilidad de un búfer desbordado es mitigada
en Fedora mediante la utilización de ExecShield, un programa de ejecución de
segmentación de la memoria y protección de la tecnología, con soporte para
kernels de sistemas compatibles x86 de uno o más procesadores. ExecShield
reduce el riesgo de un desbordamiento del búfer al clasificar la memoria virtual en
segmentos ejecutables y no ejecutables. Cualquier código de programa que intente
ejecutarse fuera de los segmentos ejecutables (como por ejemplo codigo maliciosos
introducido desde un búfer desbordado que ha sido aprovechado), dispara una falla
de segmentación y finaliza.

Execshield también ofrece soporte para las tencologías No ejecutar (NX, por las
iniciales en inglés de No eXecute) de las plataformas AMD64, y para las tecnologías
Deshabilitar ejecutar (XD, por las iniciales en inglés de eXecute Disable) de las
las plataformas Itanium y sistemas Intel® 64. Estas tecnologías trabajan junto
a ExecShield para prevenir que sea ejecutado código malicioso en la porción
ejecutable de la memoria virtual, con una precisión de 4KB de código ejecutable,
disminuyendo el riego de un ataque a la debilidad de un búfer desbordado.

Importante
Para limitar la exposición a ataques en la red, todos los servicios que no son
utilizados deben ser apagados.

41
Capítulo 2. Asegurando su Red

2.1.5.2. Identificando y configurando servicios


Para mejorar la seguridad, muchos de los servicios de red instalados con Fedora están apagados por
defecto. Hay, de todas formas, algunas notables excepciones:

• cupsd — El servidor de impresión por defecto para Fedora.

• lpd — Un servidor de impresión alternativo.

• xinetd — Un súper servidor que controla las conexiones de un rango de servidores subordinados,
como son, por ejemplo gssftp y telnet.

• sendmail — El Agente de transporte de correo (MTA, por las iniciales en inglés de Mail Transport
Agent) de Sendmail es activado por defecto, pero solo escucha las conexiones del localhost.

• sshd — El servidor OpenSSH, es un reemplazo seguro para Telnet.

Cuando se intenta conocer cuándo dejar estos servicios en ejecución, lo mejor es utilizar el sentido
común y adoptar un punto de vista basado en la precaución. Por ejemplo, si una impresora no está
disponible, no deje el servicio cupsd prendido. Lo mismo vale para portmap. Si usted no monta
volumenes NFSv3, o utiliza NIS (el servicio ypbind), entonces portmap debería deshabilitarse.

Figura 2.3. Herramienta de Configuración de Servicios


Si no está seguro de los propósitos de un servicio particular, la Herrameinta de configuración de
servicios tiene un campo descriptivo, que se detalla en Figura 2.3, “Herramienta de Configuración
de Servicios”, y que ofrece información adicional.

Verificar qué servicios de red se encuentran disponibles para iniciarse en el momento del arranque
del sistema, es sólo una parte de esta historia. Debería verificar también qué puertos están abiertos y
escuchando. Para más información, vea la Sección 2.2.8, “Verificar qué puertos están abiertos”.

42
Servicios de red disponibles

2.1.5.3. Servicios inseguros


Cualquier servicio de red es potencialmente inseguro. Es por esto que es tan importante apagar
los servicios que no se utilicen. Las debilidades de los servicios son cotidianamente descubiertas y
enmendadas, haciendo que sea muy importante actualizar los paquetes relacionados con cualquiera
de los servicios de red. Para obtener más información, vea la Sección 1.5, “Actualizaciones de
seguridad”.

Algunos protocolos de red son en sí mismos más inseguros que otros. Estos incluyen los servicios
que:

• Transmiten sin encriptar nombres de usuarios y contraseñas en la red — Muchos protocolos


antiguos, como por ejemplo Telnet y FTP, no encriptan las autenticaciones de las sesiones, y
siempre que sea posible, deberían ser evitados.

• Transmiten datos vitales sin ser cifrados sobre una red — Muchos protocolos transmiten datos
en la red sin cifrarlos. Estos protocolos incluyen Telnet, FTP, HTTP y SMTP. Muchos sistemas de
archivos de red, como NFS y SMB, también transmiten información sobre internet sin cifrarla. Al
utilizar estos protocolos, queda bajo la exclusiva responsabilidad del usuario limitar la clase de
datos que se transmitan.

Servicios de volcado de memoria remoto, como netdump, transmiten el contenido de la memoria


sobre una red sin encriptar . Los volcados de memoria pueden contener contraseñas o, peor aún,
entradas a base de datos o información sensible.

Otros servicios como finger y rwhod revelan información sobre usuarios del sistema.

Ejemplos de servicios inherentemente inseguros incluyen rlogin, rsh, telnet, y vsftpd.

Todos los programas de ingreso remoto de consola (rlogin, rsh, y telnet) deberían ser
evitados en favor de la utilización de SSH. Para obtener mayor información acerca de sshd, vea la
Sección 2.1.7, “Herramientas de comunicación de seguridad mejorada”.

FTP no es en sí mismo tan peligroso para la seguridad del sistema como las consolas remotas, pero
los servidores FTP deben ser cuidadosamente configurados y vigilados para evitar probelmas. Para
obtener mayor información acerca cómo asegurar servidores FTP, vea la Sección 2.2.6, “Asegurando
FTP”.

Entre los ervicios que deberían ser cuidadosamente implementados, y colocarse detrás de un
cortafuegos, podemos encontrar a:

• finger

• authd (antes llamado identd en versiones anteriores de Fedora.)

• netdump

• netdump-server

• nfs

• rwhod

• sendmail

• smb (Samba)

43
Capítulo 2. Asegurando su Red

• yppasswdd

• ypserv

• ypxfrd

Mayor información acerca de cómo asegurar servicios de red puede encontrarse en la Sección 2.2,
“Seguridad del servidor”.

La siguiente sección discute las herramientas disponibles para crear un cortafuegos sencillo.

2.1.6. Cortafuegos personales


Luego de haberse configurado los servicios de red necesarios, es importante la implementación de un
cortafuegos.

Importante
Debería configurar los servicios necesarios e implementar un cortafuegos antes de
conectarse a Internet, o a cualquier otra red en la que usted no confíe.

Los cortafuegos previenen que los paquetes de red ingresen a la interfaz de red del sistema. Si
una petición es realizada a un puerto bloqueado por un cortafuegos, la petición será ignorada.
Si un servicio está escuchando uno de estos puertos bloqueados, no recibe los paquetes y es
efectivamente deshabilitado. Por esta razón, debe tenerse cuidado cuando se configure un
cortafuegos para bloquear el acceso a puertos que no estén en uso, y se ponga atención al proceso
para que no sea bloqueado el acceso a puertos utilizados por otros servicios configurados.

Para la mayoría de los usuarios, la mejor herramienta para configurar un cortafuegos es la


herramienta de configuración gráfica de cortafuegos que viene con Fedora: Firewall Configuration
Tool (system-config-firewall). Esta herramienta genera reglas amplias de iptables para un
cortafuegos de propósitos generales, utilizando una interfaz de panel de control.

Para obtener mayor información acerca del uso de esta aplicación y sus opciones disponibles, vea la
Sección 2.8.2, “Configuración básica de un cortafuego”.

Para usuarios avanzados y administradores de servidores, es una mejor opción la de configurar


manualmente el cortafuegos utilizando iptables. Para obtener mayor información, vea la
Sección 2.8, “Cortafuegos”. Para una guía detallada de la utilización del comando iptables, vea la
Sección 2.9, “IPTables”.

2.1.7. Herramientas de comunicación de seguridad mejorada


Así como han crecido el tamaño y la popularidad de Internet, también han aumentado los peligros de
la interceptación de las comunicaciones. Con el correr de los años, se han desarrollado herramientas
para encriptar las comunicaciones mientras están siendo transferidas sobre la red.

Fedora viene con dos herramientas básicas, que usan algoritmos de encriptación de alto nivel de
clave pública, para proteger la información mientras viaja por la red:

• OpenSSH — Una implementación libre del protocolo SSH para encriptar comunicaciones de red.

44
Seguridad del servidor

• Protección de Privacidad Gnu (GPG, por las iniciales en inglés de Gnu Privacy Guard) — Una
implementación libre para proteger los datos de la aplicación para encriptado PGP (por las iniciales
en inglés de Pretty Good Privacy).

OpenSSH es la forma más segura de acceder a equipos remotos y reemplazar servicios antiguos
y no encriptados como telnet y rsh. Open SSH ofrece un servicio de red llamado sshd y tres
aplicaciones de cliente mediante la línea de comandos:

• ssh — Un cliente seguro para acceso a consola remota.

• scp — Un comando de copia remota segura.

• sftp — Un pseudo cliente ftp seguro que permite sesiones interactivas de transferencias de
archivos.

Vaya a la Sección 3.6, “Shell seguro (SSH, por las iniciales en inglés de Secure Shell)” para obtener
mayor información sobre OpenSSH.

Importante
Si bien el servicio sshd es en sí mismo seguro, el servicio debe mantenerse
actualizado para prevenir amenazas a la seguridad. Para obtener mayor información,
vea la Sección 1.5, “Actualizaciones de seguridad”.

GPG es una manera de asegurar la privacidad en la comunicación de correo. Puede ser utilizado
tanto para enviar datos sensibles sobre las redes públicas como para proteger datos sensibles en
discos duros.

2.2. Seguridad del servidor


Cuando un sistema es utilizado como servidor en una red pública, se convierte en el objetivo de los
ataques. Por lo tanto, robustecer el sistema y desconectar los servicios es de importancia suprema
para el administrador del sistema.

Antes de profundizar en problemas específicos, recuerde los siguientes consejos generales para
fortalecer la seguridad de los servidores:

• Mantenga todos los servicios actualizados, para protegerse contra las últimas amenazas.

• Siempre que sea posible, utilice protocolos seguros.

• Siempre que sea posible, ofrezca sólo un tipo de servicio de red por máquina.

• Observe cuidadosamente a todos los servidores en busca de actividad sospechosa.

2.2.1. Asegurando los servicios con encapsuladores TCP y xinetd


Los encapsuladores TCP ofrecen control de acceso para una variedad de servicios. Muchos de los
servicios de red modernos, como SSH, Telnet, y FTP, utilizan encapsuladores TCP, quienes hacen de
guardianes entre la petición entrante y el servicio solicitado.

Los beneficios que ofrecen los encapsuladores TCP se potencian si se utilizan junto a xinetd, un
super servidor que ofrece acceso adicional, registrado, vinculación, redireccionamiento y control de la
utilización de los recursos.

45
Capítulo 2. Asegurando su Red

Nota
Es una buena idea utilizar reglas de cortafuego iptables junto con los encapsuladores
TCP y xinetd, para generar redundancia dentro de los controles de acceso al
servicio. Para obtener más información acerca de la implementación de cortafuegos
con comandos iptable, vea la Sección 2.8, “Cortafuegos”.

Las siguientes subsecciones presuponen un conocimiento básico de cada uno de los temas, y se
concentran en opciones de seguridad específicas.

2.2.1.1. Mejorando la seguridad utilizando encapsuladores TCP


Los encapsuladores TCP son capaces de mucho más que denegar el acceso a servicios. Esta
sección ilustra como se pueden usar para enviar pancartas de conexión, alertar de ataques de
nodos en particular y aumentar la funcionalidad de registro. Refiérase a la página del manual
hosts_options para obtener información acerca de la funcionalidad de los encapsuladores TCP y
el lenguaje de control.

2.2.1.1.1. Encapsuladores TCP y pancartas de conexión


Desplegar una pancarta apropiada cuando los usuarios se conectan a un servicio es una buena
manera de hacerle saber a los posibles atacantes que el administrador del sistema está vigilando.
Usted puede también controlar qué información acerca del sistema es presentada a los usuarios.
Para implementar una pancarta por medio de encapsuladores TCP para un servicio, use la opción
banner.

Este ejemplo implementa una pancarta para vsftpd. Para comenzar, cree un archivo de pancarta.
Puede ser en cualquier lugar del sistema, pero debe tener el mismo nombre que el demonio. Para
este ejemplo, el archivo es llamado /etc/banners/vsftpd y contiene la siguiente linea:

220-Hello, %c
220-All activity on ftp.example.com is logged.
220-Inappropriate use will result in your access privileges being removed.

La ficha %c proveé de una serie de información del cliente, como el nombre de usuario y el nombre de
huésped o el nombre de usuario y la dirección IP para hacerlo más intimidante.

Para que esta pancarta sea desplegada en todas la conexiones entrantes, hay que agregar la
siguiente linea en el archivo/etc/hosts.allow:

vsftpd : ALL : banners /etc/banners/

2.2.1.1.2. Encapsuladores TCP y alertas de ataque


Si un huésped o red en particular han sido detectados atacando el servidor, los encapsuladores
TCP pueden ser usados para alertar al administrador de ataques subsecuentes provenientes de ese
huésped o red usando la directiva spawn.

En este ejemplo, asumamos que un atacante de la red 206.182.68.0/24 ha sido detectado tratando
de atacar el servidor. Agregue la siguiente linea en el archivo /etc/hosts.deny para denegar
cualquier intento de conexión desde esa red, y para registrar los intentos a un archivo en especial:

46
Asegurando los servicios con encapsuladores TCP y xinetd

ALL : 206.182.68.0 : spawn /bin/ 'date' %c %d >> /var/log/intruder_alert

La ficha %d proveé el nombre del servicio al que el atacante está tratando de acceder.

Para permitir una conexión y registrarla, use la directiva spawn en el archivo /etc/hosts.allow.

Nota
Ya que la directiva spawn ejecuta cualquier comando, es una buena idea crear
un programa especial para notificar al administrador o ejecutar una cadena de
comandos en el evento de un cliente en particular tratando de conectarse al servidor.

2.2.1.1.3. Encapsuladores TCP y registro avanzado


Si ciertos tipos de conexión son más preocupantes que otros, el nivel de registro puede ser elevado
para ese servicio usando la opción severity.

Para este ejemplo, asumamos que cualquiera que intente conectarse al puerto 23 (el puerto de
Telnet) en un servidor FTP está tratando de romper el sistema. Para denotar esto, use la bandera
emerg en los archivos de registro en lugar de la bandera por defecto info y deniegue la conexión.

Para hacer esto, ponga la siguiente linea en el archivo /etc/hosts.deny:

in.telnetd : ALL : severity emerg

Esto usa la facilidad de registro por defecto authpriv, pero eleva la prioridad del valor por defecto
info a emerg, lo cual escribe los mensajes de registro directamente a la consola.

2.2.1.2. Aumentando la seguridad con xinetd


Esta sección se concentra en el uso de xinetd para crear un servicio de trampa y usarlo para
controlar los niveles de recurso disponibles para cualquier servicio xinetd. Crear límites de recursos
para los servicios puede ayudar a frustrar ataques de denegación de servicio (Denial of Service,
DoS). Refiérase a las páginas del manual para xinetd y xinetd.conf para una lista de opciones
disponibles.

2.2.1.2.1. Poniendo una trampa


Una característica importante de xinetd es su habilidad para agregar equipos a una lista
no_access global. Los equipos en esta lista no pueden crear conexiones subsecuentes a servicios
manejados por xinetd por un periodo específico de tiempo, o hasta que xinetd sea reiniciado.
Usted puede hacer esto usando el atributo SENSOR. Esta es una manera fácil de bloquear equipos
que intentan explorar puertos en el servidor.

El primer paso para crear un SENSOR es escoger que servicio no está planeado a usarse. En este
ejemplo es utilizado telnet.

Edite el archivo /etc/xinetd.d/telnet y cambie la linea flags a:

flags = SENSOR

47
Capítulo 2. Asegurando su Red

Agregue la siguiente línea:

deny_time = 30

Esto deniega cualquier intento de conexión a este puerto para ese equipo por 30 minutos. Otros
valores aceptables para el atributo deny_time son FOREVER, el cual mantiene el veto en efecto
hasta que xinetd es reiniciado y NEVER, el cual permite la conexión y la registra.

Finalmente, la última linea debe ser:

disable = no

Esto habilita la trampa.

Mientras que el uso de SENSOR es una buena idea para detectar y detener conexiones desde equipos
indeseables, tiene dos características en contra:

• No funciona contra exploraciones sigilosas (stealth)

• Un atacante que sabe que un SENSOR esta corriendo puede montar un ataque de denegación de
servicio contra un servidor en particular al forjar su dirección IP y conectarse al puerto prohibido.

2.2.1.2.2. Control de los recursos del servidor


Otra característica importante de xinetd es su habilidad de declarar límites de recursos para los
servicios bajo su control.

Lo hace usando las siguientes directivas

• cps = <number_of_connections> <wait_period> — Limita el ritmo de las conexiones


entrantes. Esta directiva toma dos argumentos:

• <number_of_connections> — El número de conexiones por segundo a manejar. Si el ritmo


de conexiones es más alto que esto, el servicio se deshabilita temporalmente. El valor por
defecto es cincuenta (50).

• <wait_period> — El número de segundos a esperar antes de rehabilitar el servicio después


de que haya sido deshabilitado. El valor por defecto es diez (10) segundos.

• instances = <number_of_connections> — Especifica el número total de conexiones


permitidas a un servicio. Esta directiva acepta ya sea un valor entero o UNLIMITED.

• per_source = <number_of_connections> — Especifica el número de conexiones permitidas


a un servicio para cada huésped. Esta directiva acepta ya sea un número entero o UNLIMITED.

• rlimit_as = <number[K|M]> — Especifica el monto de espacio de dirección de memoria que


el servicio puede ocupar en kilobytes o megabytes. Esta directiva acepta ya sea un número entero
o UNLIMITED.

• rlimit_cpu = <number_of_seconds> — Especifica el monto de tiempo en segundos que un


servicio puede ocupar del CPU. Esta directiva acepta un valor entero o UNLIMITED.

Usar estas directivas puede ayudar a prevenir cualquier servicio xinetd de abrumar el sistema,
resultando en una denegación de servicio.

48
Asegurando Portmap

2.2.2. Asegurando Portmap


El servicio portmap es un demonio de asignación dinámica de puertos para servicios RPC como NIS
y NFS. Tiene mecanismos débiles de autenticación y tiene la habilidad de asignar un amplio rango de
puertos para los servicios que controla. Por estas razones, es difícil de asegurar.

Nota
Asegurar portmap solo afecta a las implementaciones NFSv2 y NFSv3, ya que
desde NFSv4 ya no es requerido. Si usted planea implementar un servidor NFSv2 o
NFSv3, entonces portmap es requerido, y la siguiente sección aplica.

Si corre servicios RPC, obedezca estas reglas básicas.

2.2.2.1. Proteja portmap con encapsuladores TCP


Es importante usar encapsuladores TCP para limitar qué redes o equipos tienen acceso al servicio
portmap dado que no tiene una forma propia de autenticación.

Además, use solamente direcciones IP cuando limite el acceso al servicio. Evite usar nombres de
equipos, ya que pueden ser forjados por envenenamiento de DNS y otros métodos.

2.2.2.2. Proteja portmap con iptables


Para restringir aún más el acceso al servicio portmap, es una buena idea agregar reglas de iptables
al servidor y restringir el acceso a redes específicas.

Abajo hay dos ejemplos de comandos iptables. El primero permite conexiones TCP al puerto 111
(usado por el servicio portmap) desde la red 192.168.0.0/24. El segundo permite conexiones TCP al
mismo puerto localmente. Esto es necesario para el servicio sgi_fam usado por Nautilus. Todos los
demás paquetes son ignorados.

iptables -A INPUT -p tcp -s! 192.168.0.0/24 --dport 111 -j DROP


iptables -A INPUT -p tcp -s 127.0.0.1 --dport 111 -j ACCEPT

Para limitar el tráfico UDP de manera similar, use el siguiente comando.

iptables -A INPUT -p udp -s! 192.168.0.0/24 --dport 111 -j DROP

Nota
Diríjase a la Sección 2.8, “Cortafuegos” para obtener mayor información acerca de
implementar cortafuegos con comandos de iptables.

2.2.3. Asegurando NIS


El servicio de información de red (Network Information Service, NIS) es un servicio RPC, llamado
ypserv, el cual es usado en conjunto con portmap y otros servicios relacionados para distribuir
mapas de nombres de usuario, contraseñas y otros tipos de información sensible dentro de su propio
dominio.

Un servidor NIS está compuesto por diversas aplicaciones. Entre ellas podemos encontrar:

49
Capítulo 2. Asegurando su Red

• /usr/sbin/rpc.yppasswdd — También denominado servicio yppasswdd. Este demonio


permite que los usuarios modifiquen sus contraseñas NIS.

• /usr/sbin/rpc.ypxfrd — También denominado servicio ypxfrd. Este demonio es el


responsable de las transferencias de mapas NIS sobre la red.

• /usr/sbin/yppush — Esta aplicación se encarga de distribuir las bases de datos NIS que han
sido modificadas hacia diferentes servidores NIS.

• /usr/sbin/ypserv — Este es el demonio del servidor NIS.

De acuerdo a los estándares actuales, NIS está considerado como un método inseguro. No tiene
mecanismos de autenticación y toda la información que transmite por la red viaja sin ser cifrada,
incluyendo los hashes de las contraseñas. Es por esto que hay que tomar todas las precauciones
posibles cuando se configure una red que utilice NIS. Esto se complica aún más por el hecho que la
configuración establecida por defecto de NIS es en si misma insegura.

Se recomienda a todo aquel que tenga intenciones de implementar un servidor NIS, que primero
asegure el servicio portmap (como se puede observar en la Sección 2.2.2, “Asegurando Portmap”), y
que luego continúe con los siguientes eventos, como la planificación de la red.

2.2.3.1. Planeamiento cuidadoso de la red


Debido a que NIS transmite sin encriptar información clave a través de la red, es importante que el
servicio sea ejecutado detrás de un cortafuegos y sobre una porción de la red definida y considerada
segura. Existen riegos de intercepción cada vez que se transmite información NIS sobre una red que
no es segura. Un cuidadoso diseño de la red puede ayudar a prevenir importantes intrusiones en la
seguridad.

2.2.3.2. Utilización de nombres de dominio y de equipo NIS, de modo


similar a una contraseña
Cualquier equipo dentro de un dominio NIS puede utilizar comandos para obtener información del
servidor sin tener que autenticarse, siempre y cuando el usuario conozca tanto el nombre del equipo
del servidor DNS, como el nombre del dominio DNS.

Por ejemplo, si alguien conecta una laptop en la red, o si irrumpe en ella desde el exterior (y se las
ingenia para obtener una dirección IP interna), los siguientes comandos muestran el mapa de /etc/
passwd:

ypcat -d <NIS_domain> -h <DNS_hostname> passwd

Si el atacante es un usuario root, puede obtener el archivo /etc/shadow ingresando el siguiente


comando:

ypcat -d <NIS_domain> -h <DNS_hostname> shadow

Nota
Si se utiliza Kerberos, el archivo /etc/shadow no se encuentra almacenado dentro
de un mapa NIS.

50
Asegurando NIS

Para hacer más complicado a los atacantes el acceso a los mapas NIS, genere una cadena aleatoria
para el nombre del equipo DNS, como por ejemplo o7hfawtgmhwg.domain.com. De manera
similar, genere aleatoriamente un nombre de dominio NIS distinto. Esto hace que para un atacante
sea mucho más dificil ingresar en el servidor NIS.

2.2.3.3. Editar el archivo /var/yp/securenets


Si el archivo /var/yp/securenets está vacío o no existe (como es el caso luego de una instalación
por defecto), NIS escucha a todos los puertos. Una de las primeras cosas a realizar es ingresar
pares máscara de red/red (netmask/network) en el archivo de modo que ypserv solo responda a las
peticiones de una red adecuada.

A continuación se muestra una entrada de ejemplo del archivo /var/yp/securenets:

255.255.255.0 192.168.0.0

Advertencia
Nunca inicie un servidor NIS por vez primera sin haber antes creado el archivo /
var/yp/securenets.

Esta técnica no ofrece protección contra ataques de simulación de identidad, pero al menos establece
límites sobre las redes en las que el servidor NIS está funcionando.

2.2.3.4. Asigne puertos estáticos y utilice reglas de iptables


A todos los servidores relacionados con NIS se les puede asignar un puerto específico, excepto
rpc.yppasswdd — el demonio que permite a los usuarios modificar sus contraseñas de logueo.
Asignar puertos a rpc.ypxfrd y ypserv, los restantes demonios de servidores NIS, permite la
creación de reglas de cortafuegos, y de esta manera poder proteger a los demonios de futuras
intrusiones.

Para hacerlo, agregue las siguientes líneas en /etc/sysconfig/network:

YPSERV_ARGS="-p 834" YPXFRD_ARGS="-p 835"

Las siguientes reglas iptables pueden ser utilizadas para fortalecer la red que el servidor está
escuchando con estos puertos:

iptables -A INPUT -p ALL -s! 192.168.0.0/24 --dport 834 -j DROP


iptables -A INPUT -p ALL -s! 192.168.0.0/24 --dport 835 -j DROP

Esto significa que el servidor solo permite conexiones a los puertos 834 y 835, si es que la petición
proviene desde la red 192.168.0.0/24, y sin importar qué protocolo se esté utilizando.

Nota
Diríjase a la Sección 2.8, “Cortafuegos” para obtener mayor información acerca de
implementar cortafuegos con comandos de iptables.

51
Capítulo 2. Asegurando su Red

2.2.3.5. Use autenticación con Kerberos


Uno de los problemas a ser considerados si se utiliza NIS para una autenticación, es que cada vez
que un usuario ingresa en una máquina, se envía un hash del mapa /etc/shadow por la red. Si un
intruso obtiene acceso a un dominio NIS y observa el tráfico en la red, puede recolectar los hashes
de nombres de usuarios y contraseñas. Con el tiempo suficiente, un programa de descifrado de
contraseñas puede adivinar aquellas que son débiles, y el atacante puede obtener acceso a una
cuenta válida en esa red.

Debido a que Kerberos utiliza cifrados con una clave secreta, nunca se envían hashes de
contraseñas sobre la red, haciendo que el sistema sea más seguro. Para obtener mayor información
acerca de Kerberos, vea la Sección 2.6, “Kerberos”.

2.2.4. Asegurando NFS

Importante
La versión de NFS incluida en Fedora, NFSv4, ya no necesita el servicio portmap
como se lo indica en la Sección 2.2.2, “Asegurando Portmap”. El tráfico NFS, en
lugar de UDP ahora utiliza TCP para todas sus versiones, y lo solicita al utilizar
NFSv4. NFSv4 ahora ofrece autenticación Kerberos para grupos y usuarios, como
parte del módulo del kernel RPCSEC_GSS. Sigue existinedo información incluida
acerca de portmap, ya que Fedora tiene soporte para NFSv2 y NFSv3, y ambos
utilizan portmap.

2.2.4.1. Planeamiento cuidadoso de la red


Ahora que NFSv4 tiene la capacidad de enviar toda la información en la red encriptada utilizando
Kerberos, es importante que el servicio sea configurado correctamente, si es que se encuentra detrás
de un cortafuegos o en una red segmentada. Todavía NFSv3 envía los datos de manera no segura, y
esto debería ser tendido en cuenta. Un diseño de redes que preste atención a todos estos aspectos
puede prevenir fallas en la seguridad.

2.2.4.2. Cuidado con los errores de sintaxis


El servidor NFS determina qué sistemas de archivos exportar y hacia qué equipos hacerlo al consultar
el archivo /etc/exports. Tenga cuidado de no agregar espacios extraños cuando edite este
archivo.

Por ejemplo, la siguiente línea en el archivo /etc/exports comparte el directorio /tmp/nfs/ con el
equipo juan.ejemplo.com con permisos de lectura y escritura.

/tmp/nfs/ bob.example.com(rw)

Por otro lado, la siguiente línea en el archivo /etc/exports comparte el mismo directorio con el
equipo juan.ejemplo.com, sólo con permisos de lectura, y además lo comparte con el mundo con
permisos de lectura y de escritura, debido a un simple espacio en blanco dejado luego del nombre del
equipo.

/tmp/nfs/ bob.example.com (rw)

52
Asegurando el servidor HTTP Apache

Es una buena costumbre la de confirmar cualquier configuración de elementos compartidos NFS,


utilizar para ello el comando showmount y verificar qué es lo que está siendo compartido:

showmount -e <hostname>

2.2.4.3. No utilice la opción no_root_squash


Por defecto, al utilizarse para compartir elementos, NFS cambia el usuario root al usuario
nfsnobody, una cuenta de usuario sin privilegios. Esto modifica la pertenencia de todos los archivos
creados por el usuario root, y se los otorga a nfsnobody, evitando de esta forma la carga de
programas definidos con bit de tipo setuid.

Si se utiliza no_root_squash, los usuarios root remotos tienen la posibilidad de modificar cualquier
archivo en el sistema de archivos compartido, y dejar aplicaciones infectadas con troyanos para que
otros usuarios las ejecuten sin saberlo.

2.2.4.4. Configuración del cortafuego de NFS


Los puertos utilizados por NFS están dinámicamente asignados por rpcbind, y esto puede causar
problemas en el momento de crear reglas de cortafuegos. Para simplificar este proceso, utilice el
archivo /etc/sysconfig/nfs para especificar qué puertos deben ser utilizados:

• MOUNTD_PORT — puerto TCP y UDP para mountd (rpc.mountd)

• STATD_PORT — puerto TCP y UDP para status (rpc.statd)

• LOCKD_TCPPORT — puerto TCP para nlockmgr (rpc.lockd)

• LOCKD_UDPPORT — UDP port nlockmgr (rpc.lockd)

Los números de puerto especificados no deben ser utilizados por ningún otro servicio. Configure su
cortafuegos para permitir los números de puerto especificados, del mismo modo que el puerto TCP y
UDP 2049 (NFS).

Ejecute el comando rpcinfo -p sobre el servidor NFS para conocer qué programas RPC y qué
puertos están siendo utilizados.

2.2.5. Asegurando el servidor HTTP Apache


El servidor HTTP Apache es uno de los servicios más seguros y estables que son empaquetados con
Fedora. Una extensa variedad de opciones y técnicas están disponibles para asegurar el servidor
HTTP Apache — demasiado numerosas para analizarlas en profundidad aquí. La sección siguiente
explica brevemente algunas buenas costumbres al ejecutar el servidor HTTP Apache.

Siempre verifique que funcione correctamente cualquier programa que tenga intención de utilizar en el
sistema antes de ponerlo en producción. Además, asegúrese que solo el usuario root tenga permisos
de escritura sobre cualquier directorio que contenga programas o CGIs. Para hacer esto, ejecute los
siguientes comandos como usuario root:

1. chown root <directory_name>

2. chmod 755 <directory_name>

53
Capítulo 2. Asegurando su Red

Los administradores de sistemas deben ser cuidadosos al utilizar las siguientes opciones de
configuración (definidas en /etc/httpd/conf/httpd.conf):

FollowSymLinks
Esta directiva se encuentra activa por defecto, de modo que tenga cuidado al crear enlaces
simbólicos al documento raíz del servidor Web. Por ejemplo, es una mala idea la de adjudicarle
un enlace simbólico a /.

Indexes
Esta directiva está activa por defecto, pero puede no ser deseada. Elimínela si quiere evitar que
los visitantes puedan examinar los archivos del servidor.

UserDir
La directiva UserDir se encuentra deshabilitada por defecto, debido a que puede confirmar la
presencia de una cuenta de usuario en el sistema. Para permitir que se examinen directorios de
usuario en el servidor, utilice las siguientes directivas:

UserDir enabled
UserDir disabled root

Estas directivas activan la posibilidad de analizar directorios de usuario para todos los directorios
de usuarios que no sean /root/. Para añadir usuarios a la lista de las cuentas desactivadas,
añada a esos usuarios en una lista separada por espacios en la línea UserDir disabled.

Importante
No elimine la directiva IncludesNoExec. Por defecto, el módulo Server-Side
Includes (SSI) no puede ejecutar comandos. Se recomienda no cambiar estas
configuraciones a no ser que sea absolutamente necesario, ya que potencialmente
podría permitir que un atacante ejecute comandos en el sistema.

2.2.6. Asegurando FTP


El Protocolo de Transferencia de Archivos (FTP, por las iniciales en inglés de File Transfer Protocol),
es un viejo protocolo TCP diseñado para transferir archivos sobre una red. Puesto que todas las
transacciones con el servidor no son encriptadas, incluyendo las autenticaciones de usuario, es
considerado un protocolo no seguro y debería ser configurado cuidadosamente.

Fedora provee tres servidores FTP.

• gssftpd — Un demonio basado en xinetd con soporte para Kerberos que no transmite
informaciones de autenticación sobre la red.

• Acelerador de Contenido de Red Hat (tux) — Un servidor web en el espacio del kernel con
capacidades FTP.

• vsftpd — Una implementación orientada a la seguridad del servicio FTP.

Los siguientes lineamientos de seguridad sirven para configurar el servicio FTP vsftpd.

54
Asegurando FTP

2.2.6.1. Mensaje de bienvenida de FTP


Antes de enviar un nombre de usuario y una contraseña, todos los usuarios son recibidos con una
imagen de bienvenida. Por defecto, esta imagen incluye la información de la versión que se está
utilizando, información que sirve a los atacantes para poder identificar debilidades en el sistema.

Para modificar la imagen de bienvenida para vsftpd, agregue la siguiente directiva en el archivo /
etc/vsftpd/vsftpd.conf:

ftpd_banner=<insert_greeting_here>

En la directiva indicada recién, sustituya <insert_greeting_here> con el texto del mensaje de


bienvenida.

Para imágenes con varias líneas, lo mejor es utilizar un archivo de imagen. Para simplificar la
administración de múltiples imágenes, coloquelas a todas ellas en un nuevo directorio llamado /etc/
banners/. En nuestro ejemplo, el archivo de imagen para conexiones FTP es /etc/banners/
ftp.msg. A continuación se puede observar cómo puede llegar a lucir un archivo con esstas
características:

######### # Hello, all activity on ftp.example.com is logged. #########

Nota
No es necesario empezar cada línea del archivo con 220, como se lo indica en la
Sección 2.2.1.1.1, “Encapsuladores TCP y pancartas de conexión”.

Para tener una referencia de esta imagen de bienvenida en vsftpd, añada la siguiente directiva en el
archivo /etc/vsftpd/vsftpd.conf:

banner_file=/etc/banners/ftp.msg

También es posible enviar imágenes adicionales a conexiones entrantes utilizando encapsuladores


TCP como se explica en la Sección 2.2.1.1.1, “Encapsuladores TCP y pancartas de conexión”.

2.2.6.2. Acceso anónimo


La presencia del directorio /var/ftp/ activa la cuenta anónima.

La forma más sencilla de crear este directorio es instalando el paquete vsftpd. Este paquete
establece un árbol de directorios para usuarios anónimos y configura los permisos de manera tal que
estos usuarios sólo puedan leer sus contenidos.

Por defecto, el usuario anónimo no puede escribir en ningún directorio.

Advertencia
Si se habilita la posibilidad de acceso anónimo a un servidor FTP, tenga cuidado de
donde almacenar los datos importantes.

55
Capítulo 2. Asegurando su Red

2.2.6.2.1. Subida anónima


Para permitir que los usuarios anónimos suban archivos, es recomendable la creación de un
directorio dentro de /var/ftp/pub/, con permisos de escritura solamente.

Para hacerlo, ingrese el siguiente comando:

mkdir /var/ftp/pub/upload

A continuación, modifique los permisos de modo que los usuarios anónimos no puedan conocer el
contenido del directorio:

chmod 730 /var/ftp/pub/upload

Un listado de manera extendida del directorio, debería ser semejante a esto:

drwx-wx--- 2 root ftp 4096 Feb 13 20:05 upload

Advertencia
Los administradores que permiten que usuarios anónimos sean capaces de leer y de
escribir sobre los directorios, a menudo se encuentran con que sus servidores se han
convertido en repositorios de software robado.

Adicionalmente, bajo vsftpd, añada la siguiente línea en el archivo /etc/vsftpd/vsftpd.conf:

anon_upload_enable=YES

2.2.6.3. Cuentas de usuario


Debido a que FTP transmite para su autenticación nombres de usuario y contraseñas sin encriptarse
sobre redes no seguras, es una buena idea la de negar a los usuarios del sistema el acceso al
servidor desde sus cuentas de usuario.

Para deshabilitar todas las cuentas de usuario en vsftpd, agregue la siguiente directiva en /etc/
vsftpd/vsftpd.conf:

local_enable=NO

2.2.6.3.1. Restringiendo cuentas de usuario


Para deshabilitar acceso FTP para una cuenta específica, o un grupo de cuentas específico, como
ser por ejemplo el usuario root y todos aquellos con privilegios sudo, la manera más sencilla de
hacerlo es utilizar un archivo de lista PAM como se explica en la Sección 2.1.4.2.4, “Deshabilitando
root usando PAM”. El archivo de configuración PAM para vsftpd es /etc/pam.d/vsftpd.

También es posible deshabilitar cuentas de usuario directamente dentro de cada servicio.

Para deshabilitar cuentas de usuario específicas en vsftpd, agregue el nombre del usuario en /
etc/vsftpd.ftpusers

56
Asegurando Sendmail

2.2.6.4. Utilice encapsuladores TCP para el control de acceso


Utilice encapsuladores TCP para controlar el acceso al demonio FTP como se indica en la
Sección 2.2.1.1, “Mejorando la seguridad utilizando encapsuladores TCP”.

2.2.7. Asegurando Sendmail


Sendmail es un agente de transferencia de correos (MTA, por las iniciales en inglés de Mail Transfer
Agent), que utiliza protocolo simple de transferencia de correo (SMTP, Simple Mail Transfer Protocol)
para enviar mensajes electrónicos entre otros MTAs, o hacia otros clientes de correo, o agentes de
entrega. Si bien muchos MTAs son capaces de encriptar el tráfico entre uno y otro, algunos no lo
hacen, de modo que enviar correos electrónicos en una red pública es considerado una forma de
comunicación no segura.

Es recomendable que todos aquellos que estén planeando implementar un servidor Sendmail, tengan
en cuenta los siguientes inconvenientes.

2.2.7.1. Limitar un ataque de denegación de servicio


Debido a la naturaleza del correo electrónico, un atacante determinado puede inundar de manera
relativamente sencilla el servidor con correos, y provocar la denegación del servicio. Al establecer
límites a las siguientes directivas en /etc/mail/sendmail.mc, la efectividad de ataques de ese
tipo se ve disminuida.

• confCONNECTION_RATE_THROTTLE — El número de conexiones que el servidor puede recibir


por segundo. Por defecto, Sendmail no limita el número de conexiones. Si se alcanza un límite
previamente establecido, las siguientes conexiones son demoradas.

• confMAX_DAEMON_CHILDREN — El máximo número de procesos hijo que pueden ser generados


por el servidor. Por defecto, Sedmail no atribuye un límite a la cantidad de estos procesos. Si se
alcanza un límite previamente establecido, las siguientes conexiones serán demoradas.

• confMIN_FREE_BLOCKS — El número mínimo de bloques libres que deben estar disponibles para
que el servidor acepte correos. La cantidad establecida por defecto es de 100 bloques.

• confMAX_HEADERS_LENGTH — El tamaño máximo aceptable (en bytes) para un encabezado de


mensaje.

• confMAX_MESSAGE_SIZE — El tamaño máximo aceptable (en bytes) para un solo mensaje.

2.2.7.2. NFS y Sendmail


Nunca coloque el directorio mail spool, /var/spool/mail/, en un volumen NFS compartido.

Debido a que NFSv2 y NFSv3 no tienen control sobre usuarios ni sobre IDs de grupos, dos o más
usuarios pueden tener el mismo UID, y recibir y leer cada uno correos electrónicos del otro.

Nota
Con NFSv4 utilizando Kerberos este no es el caso, ya que el módulo del kernel
SECRPC_GSS no utiliza autenticaciones basadas en UID. Sin embargo, todavía hoy
es considerada una buena costumbre la de no colocar el directorio mail spool en
volúmenes NFS compartidos.

57
Capítulo 2. Asegurando su Red

2.2.7.3. Usuarios de sólo correo


Para ayudar a prevenir que explote a los usuarios locales para usar el servidor Sendmail, lo mejor es
que solamente ingresen al servidor Sendmail usando un cliente de correos electrónicos. Las cuentas
de consola en el servidor de correo no deberían ser permitidas y todos los usuarios de consola en
el archivo /etc/passwd deberían definirse como /sbin/nologin (con la posible excepción del
usuario root).

2.2.8. Verificar qué puertos están abiertos


Luego de configurar los servicios de red, es importante prestarle atención a los puertos que
actualmente están escuchando en las interfaces de red del sistema. Cualquier puerto abierto puede
ser la evidencia de una intrusión.

Existen dos maneras fundamentales para listar los puertos que están abiertos en la red. La menos
confiable consiste en consultar los paquetes en la red utilizando comandos como netstat -an
o lsof -i. Este método es menos confiable debido a que estos programas no se conectan a la
máquina desde la red, sino que verifican qué es lo que se está ejecutando en el sistema. Por esta
razón, estas aplicaciones frecuentemente son reemplazadas por atacantes. Alguien que quiera
ocultar el rastro que está dejando al ingresar, o al abrir sin autorización los puertos de un sistema,
intentará reemplazar netstat y lsof, con sus versiones personales y modificadas.

Una forma más confiable de verificar los puertos que están escuchando en una red, es mediante la
utilización de un escáner de puertos como nmap.

El siguiente comando ejecutado desde una terminal, especifica los puertos que se encuentran
abiertos a conexiones TCP desde la red:

nmap -sT -O localhost

La salida de este comando es la siguiente:

Starting Nmap 4.68 ( http://nmap.org ) at 2009-03-06 12:08 EST


Interesting ports on localhost.localdomain (127.0.0.1):
Not shown: 1711 closed ports
PORT STATE SERVICE
22/tcp open ssh
25/tcp open smtp
111/tcp open rpcbind
113/tcp open auth
631/tcp open ipp
834/tcp open unknown
2601/tcp open zebra
32774/tcp open sometimes-rpc11
Device type: general purpose
Running: Linux 2.6.X
OS details: Linux 2.6.17 - 2.6.24
Uptime: 4.122 days (since Mon Mar 2 09:12:31 2009)
Network Distance: 0 hops
OS detection performed. Please report any incorrect results at http://nmap.org/submit/ .
Nmap done: 1 IP address (1 host up) scanned in 1.420 seconds

Esta salida muestra que el sistema está ejecutando portmap debido a la presencia del servicio
sunrpc. Sin embargo, existe además un servicio misterioso en el puerto 834. Para verificar si el
puerto está asociado con la lista oficial de servicios conocidos, ingrese:

cat /etc/services | grep 834

58
Identificación única (SSO, por las iniciales en inglés de Single Sign-on)

Este comando no devuelve ninguna información. Lo que está indicando es que si bien el puerto se
encuentra dentro del rango reservado (es decir, entre 0 y 1023), y que no necesita privilegios de
usuario root para abrirse, sin embargo no está asociado con ningún servicio conocido.

A continuación, verifique si existe información acerca del puerto utilizando netstat o lsof. Para
verificar el puerto 834 utilizando netstat, ingrese el siguiente comando:

netstat -anp | grep 834

El comando devuelve la siguiente salida:

tcp 0 0 0.0.0.0:834 0.0.0.0:* LISTEN 653/ypbind

La presencia de un puerto abierto en netstat es un reaseguro, ya que si un atacante ha abierto


un puerto en un sistema en el que no está autorizado a ingresar, seguramente no permitirá que sea
detectada su presencia mediante este comando. Además, la opción [p] revela el proceso ID (PID)
del servicio que ha abierto el puerto. En este caso, el puerto abierto pertenece a ypbind (NIS), que
es un servicio RPC administrado conjuntamente con el servicio portmap.

El comando lsof muestra información similar a netstat, ya que también es capaz de enlazar
puertos con servicios:

lsof -i | grep 834

La sección que nos interesa de la salida de este comando es la siguiente:

ypbind 653 0 7u IPv4 1319 TCP *:834 (LISTEN)


ypbind 655 0 7u IPv4 1319 TCP *:834 (LISTEN)
ypbind 656 0 7u IPv4 1319 TCP *:834 (LISTEN)
ypbind 657 0 7u IPv4 1319 TCP *:834 (LISTEN)

Estas herramientas nos dicen mucho acerca del estado en que se encuentran los servicios en
ejecución de una máquina. Estas herramientas son flexibles y pueden ofrecer una importante
cantidad de información acerca de los servicios de red y sus configuraciones. Para obtener más
informacuión, vea las páginas man de lsof, netstat, nmap, y services.

2.3. Identificación única (SSO, por las iniciales en inglés de


Single Sign-on)

2.3.1. Introducción
La funcionalidad de SSO de Fedora reduce el número de veces que los usuarios de escritorio de
Fedora deben ingresar sus contraseñas. Varias de las aplicaciones más importantes utilizan los
mismos mecanismos subyacentes de autenticación y autorización, de modo que los usuarios pueden
identificarse desde la pantalla de registro en Fedora y luego no necesitar reingresar sus contraseñas.
Estas aplicaciones se describen más abajo.

Además, los usuarios pueden registrarse en sus máquinas aún cuando no exista una red
(modo desconexión), o cuando la conectividad no sea confiable, como por ejemplo, los accesos
inalámbricos. En este último caso, los servicios serán notablemente disminuidos.

59
Capítulo 2. Asegurando su Red

2.3.1.1. Aplicaciones soportadas


Las siguientes aplicaciones están actualmente soportadas por el esquema de registro unificado en
Fedora:

• Entrada

• Salvapantallas

• Firefox y Thunderbird

2.3.1.2. Mecanismos de autenticación soportados


Fedora actualmente tiene soporte para los siguientes mecanismos de autenticación:

• Ingreso de nombre/contraseña Kerberos

• ingreso por Tarjeta Inteligente/PIN

2.3.1.3. Tarjetas Inteligentes soportadas


Fedora ha sido probada con una tarjeta y un lector Cyberflex e-gate, pero cualquier tarjeta que
cumpla tanto con las especificaciones de tarjetas Java 2.1.1, y las especificaciones Global Platform
2.0.1, debería poder funcionar correctamente, del mismo modo que cualquier lector que sea
soportado por PCSC-lite.

Fedora también ha sido probada con tarjetas de acceso común (CAC, por las iniciales en inglés de
Common Access Cards). El lector soportado para CAC es el lector USB SCM SCR 331.

En cuanto a Fedora 5.2, ya tienen soporte las tarjetas inteligentes Gemalto (Cyberflex Access 64k
v2, standard con valor DER SHA1 configurado del mismo modo que en PKCSI v2.1). Estas tarjetas
ahora utilizan lectores compatibles con dispositivos de interfases de tarjetas (CCID, por las iniciales
en inglés de Smart Card Interface Devices) de tipo Chip/Smart.

2.3.1.4. Ventajas de SSO de Fedora


Numerosos mecanismos de seguridad existentes hoy en día utilizan una gran cantidad de protocolos
y credenciales. Algunos ejemplos de ellos son SSL, SSH, IPsec y Kerberos. La idea de SSO en
Fedora es la de unificar estos esquemas para dar soporte a los requerimientos mencionados
recién. Esto no significa que haya que reemplazar Kerberos con certificados X.509x3, sino que se
unifican para poder reducir el peso que tienen que soportar tanto los usuarios del sistema, como sus
administradores.

Para cumplir este objetivo, Fedora:

• Ofrece una sola instancia compartida de las bibliotecas de encriptación NSS en cada sistema
operativo.

• Incluye el Sistema de Certificado del Cliente de Seguridad Empresarial (ESC, por las iniciales
en inglés de Enterprise Security Client) dentro del sistema operativo base. La aplicación ESC se
encarga de controlar los eventos relacionados con la inserción de tarjetas inteligentes. Si detecta
que el usuario ha insertado una tarjeta que fue diseñada para ser utilizada con el Certificado del
Sistema del servidor de producto de Fedora, muestra una interfaz de usuario con instrucciones para
que la tarjeta en cuestión pueda ser registrada.

60
Empezar a utilizar su nueva tarjeta inteligente

• Unifica Kerberos y NSS de modo que los usuarios que se registren en el sistema operativo
utilizando una tarjeta inteligente, también puedan obtener credenciales de Kerberos (lo que les
permite registrarse en los servidores, etc.)

2.3.2. Empezar a utilizar su nueva tarjeta inteligente


Antes de poder utilizar una tarjeta inteligente en sus sistema, y poder aprovechar las grandes ventajas
en las opciones de seguridad que esta tecnología ofrece, necesita realizar en un determinado orden
algunas instalaciones mínimas. Más abajo se explica en qué consisten.

Nota
Esta sección ofrece una explicación general para poder empezar a utilizar su tarjeta
inteligente. Información más específica puede encontrarse en la Guía del Cliente del
Cliente de Seguridad Empresarial del Sistema de Certificado de Red Hat.

1. Ingrese con su nombre de usuario y contraseña Kerberos.

2. Asegúrese de tener instalado el paquete nss-tools.

3. Descargue e instale sus certificados corporativos específicos de usuario root. Utilice el siguiente
comando para instalar el certificado root CA:

certutil -A -d /etc/pki/nssdb -n "root ca cert" -t "CT,C,C" -i ./


ca_cert_in_base64_format.crt

4. Verifique que tenga los siguientes RPMs instalados en su sistema: esc, pam_pkcs11, coolkey, ifd-
egate, ccid, gdm, authconfig, and authconfig-gtk.

5. Habilite el soporte de ingreso por Tarjeta Inteligente.

a. En la barra de menú superior de Gnome, elija Sistema->Administración->Autenticación.

b. Si es necesario, ingrese la contraseña de usuario root de su equipo.

c. En el diálogo de configuración de autenticación, haga clic sobre la pestaña Autenticación.

d. Tilde la casilla Activar soporte para tarjeta inteligente.

e. Haga clic en el botón Configurar tarjeta inteligente... para ver el diálogo de configuración
de Smartcard, e indique las opciones requeridas:

• Requiere tarjeta inteligente para ingresar — Destilde esta casilla. Luego de haberse
ingresado exitosamente en su sistema con la tarjeta inteligente puede elegir esta opción
para prevenir que otros usuarios ingresen a él sin una tarjeta inteligente.

• Acción de Retiro de Tarjeta — Esto controla qué es lo que sucede cuando usted retire la
tarjeta luego de haberse registrado. Las opciones disponibles son:

• Bloquear — Si se retira la tarjeta se bloquea la pantalla X.

• Ignorar — No sucede nada cuando se retira la tarjeta.

61
Capítulo 2. Asegurando su Red

6. Si necesita activar el Certificado de Estado de Protocolo Online (OCSP, por las siglas en inglés
de Online Certificate Status Protocol), abra el archivo /etc/pam_pkcs11/pam_pkcs11.conf y
ubique la siguiente línea:

enable_ocsp = false;

Modifique su valor a "true", del siguiente modo:

enable_ocsp = true;

7. Enrole su tarjeta inteligente.

8. Si además está utilizando una tarjeta CAC, tendrá que realizar los siguientes pasos:

a. Conviértase en usuario root y genere un archivo llamado /etc/pam_pkcs11/cn_map.

b. Añada la siguiente entrada al archivo cn_map:

MY.CAC_CN.123454 -> myloginid

donde MY.CAC_CN.123454 es el nombre común en su CAC y myloginid es su ID de


logueo UNIX.

9. Salida

2.3.2.1. Solución de problemas


Si se encuentra con algún inconveniente para lograr que su tarjeta inteligente funcione, intente utilizar
el siguiente comando para ubicar el origen del problema.

depurador pklogin_finder

Si ejecuta la herramienta pklogin_finder en modo de depuración, mientras una tarjeta inteligente


registrada se encuentre conectada, intentará mostrar información acerca de los certificados válidos, y
si tiene éxito, intentará mapear un ID de registro desde los certificados que existan en la tarjeta.

2.3.3. Como funciona la inscripción de las tarjetas inteligentes.


Las tarjetas inteligentes se dice que son inscriptas cuando han recibido un certificado adecuado
identificado con un Certificado de Autoridad válido (CA, por las iniciales en inglés de Certificate
Authority). Esto implica una serie de pasos, que se describen a continuación:

1. El usuario inserta su tarjeta inteligente en el lector de tarjetas de su estación de trabajo. Este


evento es reconocido por el Cliente de Seguridad Corporativo (ESC, por las iniciales en inglés de
Entreprise Security Client).

2. La página de inscripción se muestra en en escritorio del usuario. El usuario completa los detalles
solicitados y entonces recién su sistema se conecta con el Sistema de procesamiento de fichas
(TPS, por las iniciales en inglés de Token Processing System) y con el CA.

3. El TPS inscribe a la tarjeta inteligente utilizando un certificado firmado por CA.

62
Cómo funciona el ingreso con tarjeta inteligente

Figura 2.4. Como funciona la inscripción de las tarjetas inteligentes.

2.3.4. Cómo funciona el ingreso con tarjeta inteligente


En la siguiente sección se ofrece una breve descripción general del proceso de registro utilizando una
tarjeta inteligente.

1. Cuando el usuario inserta su tarjeta inteligente en el lector de tarjetas, este evento es reconocido
por la herramienta PAM, quien solicita al usuario su PIN.

2. El sistema entonces intenta encontrar los certificados vigentes del usuario y verifica su validez. El
certificado entonces es mapeado en el UID del usuario.

3. Esto es validado en el KDC (centro de distribución de claves de Kerberos) y el registro es


autorizado.

63
Capítulo 2. Asegurando su Red

Figura 2.5. Cómo funciona el ingreso con tarjeta inteligente

Nota
No puede registrarse con una tarjeta que no haya sido inscripta, ni siquiera aunque
haya sido formateada. Necesita registrarse con una tarjeta formateada e inscripta, o
no utilizar ninguna que no haya sido inscripta.

Para obtener mayor información acerca de Kerberos y PAM, vea la Sección 2.6, “Kerberos” y
Sección 2.4, “Módulos de autenticación conectables (PAM, por las iniciales en inglés de Pluggable
Authentication Modules)”.

2.3.5. Configurar Firefox para la utilización de Kerberos como SSO


Puede configurar Firefox para utilizar Kerberos para la identificación única SSO. Para que esta
herramienta pueda funcionar correctamente, necesita configurar su navegador web para que pueda
enviar sus credenciales Kerberos al KDC adecuado. En la siguiente sección se describen las
modificaciones a realizar en la configuración, y otros requerimientos necesarios para poder utilizar
correctamente esta funcionalidad.

1. En la barra de direcciones de Firefox, escriba about:config para ver una lista actualizada de
las opciones de configuración disponibles.

2. En el campo Filtro, ingrese negotiate para restringir la lista de opciones.

64
Configurar Firefox para la utilización de Kerberos como SSO

3. Haga un doble clic en la entrada network.negotiate-auth.trusted-uris para mostrar el cuadro de


diálogo Ingrese valor de cadena.

4. Ingrese el nombre del dominio en el cual desea autenticarse, por ejemplo, .ejemplo.com.

5. Repita el procedimiento recién descrito para la entrada network.negotiate-auth.delegation-uris,


utilizando el mismo dominio.

Nota
Puede dejar este valor vacío, ya que permite a Kerberos enviar tickets, lo que no
es necesario.

Si no puede ver estas dos opciones de configuración listadas, tal vez la versión
de Firefox que está utilizando sea demasiado antigua para soportar negociados
de autenticación, y debería considerar actualizarla.

Figura 2.6. Configurar Firefox para SSO con Kerberos


Necesita asegurarse de poseer tickets Kerberos. En una terminal, ingrese kinit para obtenerlos.
Para mostrar la lista de los tickets disponibles, ingrese klist. A continuación se muestra un ejemplo
del resultado de estos comandos:

[user@host ~] $ kinit
Password for user@EXAMPLE.COM:

[user@host ~] $ klist
Ticket cache: FILE:/tmp/krb5cc_10920
Default principal: user@EXAMPLE.COM

Valid starting Expires Service principal


10/26/06 23:47:54 10/27/06 09:47:54 krbtgt/USER.COM@USER.COM
renew until 10/26/06 23:47:54

Kerberos 4 ticket cache: /tmp/tkt10920


klist: You have no tickets cached

65
Capítulo 2. Asegurando su Red

2.3.5.1. Solución de problemas


Si ha seguido las etapas de configuración recién indicadas, y la negociación de la autenticación
no funciona, puede activar la posibilidad de obtener información más detallada del proceso de
autenticación. Esto podría ayudarle a encontrar la causa del problema. Para obtener más detalles del
proceso de autenticación, utilice el siguiente procedimiento:

1. Cerrar todas las instancias de Firefox.

2. Abra una terminal, e ingrese los siguientes comandos:

export NSPR_LOG_MODULES=negotiateauth:5
export NSPR_LOG_FILE=/tmp/moz.log

3. Reinicie Firefox desde esa terminal, y visite el sitio web al que no podía autenticarse
anteriormente. La información será registrada en /tmp/moz.log, y podría darle alguna pista
hacerca del problema. Por ejemplo:

-1208550944[90039d0]: entering nsNegotiateAuth::GetNextToken()


-1208550944[90039d0]: gss_init_sec_context() failed: Miscellaneous failure
No credentials cache found

Esto significa que usted no tiene tickets Kerberos, y que necesita ejecutar el comando kinit.

Si puede ejecutar kinit exitosamente desde su máquina pero no puede autenticarse, debería ver
algo similar a lo siguiente en el archivo log:

-1208994096[8d683d8]: entering nsAuthGSSAPI::GetNextToken()


-1208994096[8d683d8]: gss_init_sec_context() failed: Miscellaneous failure
Server not found in Kerberos database

Generalmente esto significa que existe un problema de configuración de Kerberos. Asegúrese


de tener las entradas correctas en la sección [domain_realm] del archivo /etc/krb5.conf. Por
ejemplo:

.example.com = EXAMPLE.COM
example.com = EXAMPLE.COM

Si no aparece nada en el archivo de registro, es posible que usted se encuentre detrás de un proxy,
y que ese proxy esté eliminando los encabezados HTTP necesarios para negociar la autenticación.
Una posible solución a esto es intentar conectarse al servidor utilizando HTTPS, que permite a las
peticiones atravesar el proxy sin modificarlas. Luego proceda a depurar utilizando el archivo de
registro, como se ha explicado antes.

2.4. Módulos de autenticación conectables (PAM, por las


iniciales en inglés de Pluggable Authentication Modules)
Los programas que permiten el acceso del usuario a un sistema utilizan una autenticación para
verificar la identidad de cada uno (es decir, para establecer que el usuario es quien dice ser).

Históricamente, cada programa tenía su propia forma de autenticar los usuarios. En Fedora, muchos
programas se configuran para usar el mecanismo de autenticación centralizado llamado Módulos de
Autenticación Conectables (PAM).

66
Ventajas de PAM

PAM usa una arquitectura modular, con complementos, que le da al administrador del sistema un
buen grado de flexibilidad en la configuración de las políticas de autenticación para el sistema.

En la mayoría de las situaciones, la configuración establecida por defecto del archivo PAM será
suficiente para una aplicación que tenga soporte de PAM. Sin embargo, algunas veces, es necesario
editar un archivo de configuración de PAM. Dado que una configuración errónea de PAM puede
llegar a poner en riesgo la seguridad del sistema, es importante comprender la estructura de estos
archivos antes de realizar cualquier tipo de modificación. Para obtener más información, diríjase a la
Sección 2.4.3, “Formato del archivo de configuración de PAM”.

2.4.1. Ventajas de PAM


PAM ofrece las siguientes ventajas;

• un esquema de autenticación común que se puede usar en una amplia variedad de aplicaciones.

• flexibilidad significativa y control sobre la autenticación para administradores del sistema y


desarrolladores de aplicaciones.

• una única biblioteca bien documentada que permite a los desarrolladores escribir programas sin
tener que crear sus propios esquemas de autenticación.

2.4.2. Archivos de configuración de PAM


El directorio /etc/pam.d/ contiene los archivos de configuración de PAM para cada aplicación que
utilice PAM. En versiones anteriores de PAM, se usaba el archivo /etc/pam.conf, pero este archivo
se dejado de usar y sólo se utilizará si el directorio /etc/pam.d/ no existe.

2.4.2.1. Archivos del servicio PAM


Cada aplicación con capacidades PAM o servicio tiene un archivo en el directorio /etc/pam.d/.
Cada archivo en este directorio tiene el mismo nombre del servicio al que controla el acceso.

El programa que usa PAM es responsable por definir su nombre de servicio e instalar su propio
archivo de configuración PAM en el directorio /etc/pam.d/. Por ejemplo, el programa login define
su nombre de servicio como login e instala el archivo de configuración PAM /etc/pam.d/login.

2.4.3. Formato del archivo de configuración de PAM


Cada archivo de configuración PAM contiene un grupo de directivas formateadas como sigue:

<module interface> <control flag> <module name> <module arguments>

Cada uno de estos elementos se explica en las secciones siguientes.

2.4.3.1. Interfaz del Módulo


Hay disponibles cuatro tipos de interfases de módulos PAM. Cada uno corresponde a distintos
aspectos del proceso de autorización:

• auth — Esta interfaz de módulo autentica el uso. Por ejemplo, pide y verifica la validez de una
contraseña. Los módulos con esta interfaz también pueden poner credenciales, como membresías
de grupo o tickets Kerberos.

67
Capítulo 2. Asegurando su Red

• account — Esta interfaz de módulo verifica que el acceso esté permitido. Por ejemplo, puede
chequear si una cuenta a vencido o si un usuario puede ingresar en una hora particular del día.

• password — Esta interfaz de módulo se usa para cambiar contraseñas del usuario.

• session — Esta interfaz de módulo configura y administra sesiones del usuario. Los módulos
con esta interfaz pueden también realizar las tareas adicionales que sean necesarias para permitir
accesos, tales como el montaje del directorio personal del usuario y hacer que su casilla de correo
se encuentre disponible.

Nota
Un módulo individual puede proveer cualquiera o todas las interfases de módulo. Por
ejemplo pam_unix.so provee las cuatro interfaces de módulo.

En un archivo de configuración PAM, la interfaz de módulo es el primer campo definido. Por ejemplo,
una línea típica en una configuración puede verse como sigue:

auth required pam_unix.so

Esto instruye a PAM para que utilice la interfaz auth del módulo pam_unix.so.

2.4.3.1.1. Interfases de módulos apilables


Las directivas de la interfaz modular pueden ser apiladas, o colocadas unas sobre otras, de modo que
varios módulos puedan ser utilizados al mismo tiempo para el mismo propósito. Si la marca de control
de un módulo utiliza el valor "sufficient" o "requisite" (vea la Sección 2.4.3.2, “Bandera de control”
para obtener mayor información acerca de estas marcas), entonces el orden en que los módulos sean
listados, será importante para el proceso de autenticación.

El apilado hace fácil para un administrador pedir que se den ciertas condiciones específicas antes
de permitir al usuario autenticar. Por ejemplo, el comando reboot normalmente usa varios módulos
apilados, como se ve en su archivo de configuración PAM:

[root@MyServer ~]# cat /etc/pam.d/reboot


#%PAM-1.0
auth sufficient pam_rootok.so
auth required pam_console.so
#auth include system-auth
account required pam_permit.so

• La primera línea es un comentario y no se procesa.

• auth sufficient pam_rootok.so — Esta línea usa el módulo pam_rootok.so para


verificaar si el usuario actual es root, confirmandoo que su UID sea 0. Si esto tiene éxito, no se
consulta ningún otro módulo y el comando se ejecuta. Si esto falla, se consulta el módulo siguiente.

• auth required pam_console.so — Esta línea utiliza el módulo pam_console.so


para intentar autenticar al usuario. Si este usuario ya se encuentra dentro de la consola,
pam_console.so verifica si dentro del directorio /etc/security/console.apps/ hay un
archivo con el mismo nombre que el del servicio (reboot). Si existe ese archivo, la autenticación es
existosa y el control es pasado al siguiente módulo.

• #auth include system-auth — Esta línea es comentada y no se procesa.

68
Formato del archivo de configuración de PAM

• account required pam_permit.so — Esta línea usa el módulo pam_permit.so para


permitir al usuario root o cualquier otro que haya ingresado en la consola reiniciar el sistema.

2.4.3.2. Bandera de control


Todos los módulos PAM generan un resultado de éxito o fracaso cuando son llamados. Las banderas
de control le dicen a PAM qué hacer con el resultado. Los módulos se pueden apilar en un orden
particular, y las banderas de control determinan cuán importante es el éxito o el fracaso de un módulo
particular para el objetivo general de autenticación del usuario con el servicio.

Hay cuatro banderas de control predefinidas:

• required — El resultado del módulo debe ser exitoso para que pueda continuar la autenticación.
Si la prueba falla en este punto, el usuario no se notifica hasta que se completan con los resultados
de todas las pruebas de los módulos que referencian a esa interfaz.

• requisite — El resultado del módulo debe ser exitoso para que continúe la autenticación. Sin
embargo, si una prueba falla en este punto, el usuario se notifica inmediatamente con un mensaje
que muestra el primer fallo del módulo required o requisite.

• sufficient — El resultado del módulo es ignorado si falla. Sin embargo, si el resultado de


un módulo marcado con bandera sufficient tiene éxito y no hay módulos previos marcados
con required que hayan fallado, entonces no se necesitan otros resultados y el usuario es
autenticado con el servicio.

• optional — El resultado del módulo se ignora. Un módulo marcado como optional sólo se
vuelve necesario para una autenticación exitosa cuando no hay otros módulos referenciados en la
interfaz.

Importante
El orden en el que los módulos required se llaman no es crítico. Sólo las banderas
sufficient y requisite hacen que el orden se haga importante.

Existe disponible ára PAM una nueva sintaxis de bandera de control, que permite un control más
preciso.

La página man pam.d, y la documentación de PAM, ubicada en el directorio /usr/share/doc/


pam-<version-number>/ (donde <version-number> es el número de versión PAM en su
sistema), explica esta nueva sintaxis en detalle.

2.4.3.3. Nombre de módulo


El nombre del módulo ofrece a PAM el nombre del módulo conectable que contiene la interfaz del
módulo especificada. En versiones anteriores de Fedora la dirección completa al módulo era provista
en el archivo de configuración de PAM. Sin embargo, desde la aparición de los sistemas multilib, que
almacenan modulos PAM de 64-bit en el directorio /lib64/security/, el nombre del directorio es
omitido dado que la aplicación está enlazada con la versión correcta de libpam, que puede encontrar
la versión correcta del módulo.

69
Capítulo 2. Asegurando su Red

2.4.3.4. Argumentos del módulo


Para algunos módulos, PAM utiliza argumentos para pasar información a un módulo conectable
durante la autenticación.

Por ejemplo, el módulo pam_userdb.so utiliza información almacenada en un archivo de base de


datos Berkeley para autenticar al usuario. Berkeley es una base de datos de código abierto que se
encuentra en muchas otras aplicaciones. El módulo toma un argumento db de modo que Berkeley
sepa qué base de datos utilizar para el servicio solicitado.

La siguiente es una línea típica pam_userdb.so en una configuración de PAM. La <direccion-


del-archivo< es la dirección completa del archivo base de datos DB de Berkeley:

auth required pam_userdb.so db=<path-to-file>

Los argumentos inválidos generalmente son ignorados y de esta manera no afectan ni el éxito ni el
fracaso del módulo PAM. Algunos módulos, sin embargo, pueden fracasar con argumentos inválidos.
La mayoría de los módulos reportan sus errores en el archivo /var/log/secure.

2.4.4. Ejemplos de archivos de configuración de PAM


La siguiente es una muestra del archivo de configuración PAM de una aplicación:

#%PAM-1.0
auth required pam_securetty.so
auth required pam_unix.so nullok
auth required pam_nologin.so
account required pam_unix.so
password required pam_cracklib.so retry=3
password required pam_unix.so shadow nullok use_authtok
session required pam_unix.so

• La primera línea es un comentario, indicado por el numeral (#) al comienzo de la línea.

• Las líneas 2 a la 4 apila tres módulos para la autenticación de ingreso.

auth required pam_securetty.so — Este módulo asegura que si el usuario intenta


ingresar como root, el tty donde el usuario está ingresando debe estar listado en el archivo /etc/
securetty, si ese archivo existe.

Si el tty no está listado en el archivo, cualquier intento de loguearse como usuario root será erróneo
con el siguiente mensaje: Login incorrect.

auth required pam_unix.so nullok — Este módulo pide una contraseña al usuario, que
luego confirma utilizando la información almacenada en /etc/passwd, y /etc/shadow, si es que
existe.

• El argumento nullok le indica al módulo pam_unix.so que permita el ingreso de una


contraseña vacía.

• auth required pam_nologin.so — Este es el último momento de la autenticación. Confirma


que exista y en qué lugar, el archivo /etc/nologin. Si existe, pero el usuario no es root, la
autenticación falla.

70
Creación de los módulos PAM

Nota
En este ejemplo, los tres módulos auth se encuentran verificados, aún si falló el
primer módulo auth. Esto evita que los usuarios conozcan el momento exacto en
que su autenticación falló. En manos de un atacante, el conocimiento de ese dato
podría permitirle deducir más fácilmente cómo vulnerar el sistema.

• account required pam_unix.so — Este módulo realiza cualquier tipo de verificación de


cuenta que sea necesario. Por ejemplo, si se ha activado el enmascaramiento de contraseñas, la
interfaz de la cuenta del módulo pam_unix.so verifica que la cuenta no haya expirado, o que el
usuario no haya modificado la contraseña dentro del período permitido.

• password required pam_cracklib.so retry=3 — Si una contraseña ha expirado, el


componente contraseña del módulo pam_cracklib.so solicita una nueva. En seguida confirma
que la nueva contraseña pueda o no ser fácilmente revelada por un programa de obtención de
contraseñas basado en diccionarios.

• El argumento retry=3 indica que si esta prueba falla la primera vez, el usuario tiene dos
oportunidades más para crear una contraseña más poderosa.

• password required pam_unix.so shadow nullok use_authtok — Esta línea indica que
si el programa modifica la contraseña del usuario, debería utilizar para ello la interfaz password del
módulo pam_unix.so.

• El argumento shadow le indica al módulo la creación de contraseñas ocultas cada vez que
actualice la contraseña del usuario.

• El argumento nullok le indica al módulo que le permita al usuario modificar su contraseña


desde una contraseña en blanco. De lo contrario, una contraseña vacía será tratada como un
bloqueo de cuenta.

• El argumento final de esta línea, use_authtok, ofrece un buen ejemplo de la importancia que
tiene el orden en que se "apilen" los modulos PAM. Este argumento le indica al módulo que no le
solicite al usuario una nueva contraseña, y que en su lugar acepte cualquier contraseña que haya
sido almacenada por un módulo anterior. De esta manera, todas las nuevas contraseñas deben
pasar la prueba de pam_cracklib.so para confirmar que sean seguras antes de ser aceptadas

• session required pam_unix.so — La línea final le indica a la interfaz de sesión del módulo
pam_unix.so que administre la sesión. Este módulo registra el nombre de usuario y el tipo de
servicio en /var/log/secure al comienzo y al final de cada sesión. Este módulo puede ser
suplementado si se lo "apila" con otros módulos de sesión y poder así agregarle funcionalidades.

2.4.5. Creación de los módulos PAM


Puede crear o añadir en cualquier momento nuevos módulos PAM, para utilizarlos con cualquier
aplicación con tengan este soporte.

Por ejemplo, un desarrollador puede crear un método para generar contraseñas que sean utilizadas
sólo una vez, y escribir un módulo PAM que pueda soportarlo. Los programas que tengan soporte
para PAM podrán utilizar inmediatamente este módulo, y el método de contraseña, sin por ello tener
que ser recompilados o modificados en alguna manera.

71
Capítulo 2. Asegurando su Red

Esto permite a los desarrolladores y a los administradores de sistema mezclar, y al mismo


tiempo verificar, diferentes métodos de autenticación para diferentes programas sin necesidad de
recompilarlos.

Se ha incluido documentación para escribir módulos en el directorio /usr/share/doc/


pam-<version-number>/, donde <version-number> es el número de versión PAM de su
sistema.

2.4.6. PAM y el cacheo de la credencial administrativa


Una cantidad de herramientas administrativas gráficas en Fedora le ofrecen a los usuarios un elevado
grado de privilegio, durante un período de tiempo de hasta cinco minutos, utilizando el módulo
pam_timestamp.so. Es importante entender como funciona este mecanismo, ya que si algún
usuario abandona la terminal mientras continue vigente pam_timestamp.so, dejará a ese equipo
libre para ser manipulado por quienquiera que tenga acceso físico a la consola.

En el esquema del registro del tiempo de PAM, cuando es iniciada la aplicación administrativa
gráfica, solicita al usuario la contraseña de root. Cuando el usuario ha sido autenticado, el módulo
pam_timestamp.so crea un archivo de registro de tiempo. Por defecto, es creado en el directorio
/var/run/sudo/. Si el archivo ya existe, los programas administrativos gráficos no solicitarán una
contraseña. En su lugar, el módulo pam_timestamp.so actualizará el archivo de registro de tiempo,
reservando cinco minutos extra de acceso administrativo sin contraseñas al usuario.

Puede verificar el estado actual del archivo de registro de tiempo, consultando el archivo /var/run/
sudo/<usuario>. Para el escritorio, el archivo importante es unknown:root. Si se encuentra
presente y su registro de tiempo es menor a cinco minutos de antigüedad, las credenciales son
válidas.

La existencia del archivo de registro de tiempo se indica mediante un ícono de autenticación, que
aparece en el área de notificación del panel.

Figura 2.7. El Ícono de autenticación

2.4.6.1. Borrando el archivo de registro de tiempo


Antes de abandonar la consola donde se encuentra activo el registro de tiempo de PAM, es
recomendable destruir el archivo correspondiente. Para hacerlo desde un entorno gráfico, haga clic
sobre el ícono de autenticación del panel. Esto hace que se abra un cuadro de diálogo. Haga clic
sobre el botón Olvidar Autenticación para destruir el archivo de registro de tiempo activo.

Figura 2.8. Diálogo de olvidar autenticación

Con respecto al archivo de registro de tiempo de PAM, debe prestarle atención a lo siguiente:

72
PAM y la propiedad de los dispositivos

• Si ha ingresado en el sistema remotamente, utilizando el comando ssh, utilice el comando /sbin/


pam_timestamp_check -k root para destruir el archivo de registro de tiempo.

• Será necesario que ejecute el comando /sbin/pam_timestamp_check -k root desde la


misma ventana de la terminal desde la que inició la aplicación con este privilegio.

• Debe estar registrado como el usuario que originalmente invocó el módulo pam_timestamp.so,
de modo de poder utilizar el comando /sbin/pam_timestamp_check -k. No se registre como
usuario root para utilizarlo.

• Si quiere abandonar las credenciales en el escritorio (sin utilizar la acción Olvidar Autenticación
del ícono), utilice el siguiente comando:

/sbin/pam_timestamp_check -k root </dev/null >/dev/null 2>/dev/null

Una falla al utilizar este comando hará que solo sean eliminadas las credenciales (en el caso que
las hubiera) del pty desde donde ejecutó el comando.

Consulte la página man pam_timestamp_check para obtener más información acerca del uso de
pam_timestamp_check para destruir el archivo de registro de tiempo.

2.4.6.2. Directivas comunes de pam_timestamp_check


El módulo pam_timestamp.so acepta varias indicaciones. Las siguientes dos opciones son algunas
de las más utilizadas:

• timestamp_timeout — Especifica el periodo (en segundos) durante el cual el archivo de registro


de tiempo es válido. El valor establecido por defecto es 300 (cinco minutos).

• timestampdir — Indica el directorio en donde el archivo de registro de tiempo será almacenado.


El valor establecido por defecto es /var/run/sudo/.

Vea la Sección 2.8.9.1, “Documentación instalada del cortafuego” para obtener mayor información
acerca del control del módulo pam_timestamp.so.

2.4.7. PAM y la propiedad de los dispositivos


En Fedora, el primer usuario que se registra en la consola física de la máquina, puede manipular
ciertos dispositivos y realizar ciertas tareas que por lo general son reservadas al usuario root. Esto es
controlado por un módulo PAM denominado pam_console.so.

2.4.7.1. Propiedad de los dispositivos


Cuando un usuario se registra en un sistema Fedora, el módulo pam_console.so es llamado
mediante el comando login, o mediante algunos de los programa gráficos de logueo, como ser
gdm, kdm, y xdm. Si este usuario es el primero en loguearse en la consola física — denominada
consola del usuario — el modulo le asegura al usuario el dominio de una gran variedad de
dispositivos que normalmente le pertenecen al usuario root. Estos dispositivos le pertenecen a la
consola del usuario hasta que finalice su última sesión local. Una vez que este usuario haya finalizado
su sesión, la pertenencia de los dispositivos vuelve a ser del usuario root.

Los dispositivos afectados incluyen, pero no se limitan a, las placas de sonido, disqueteras, lectoras
de CD-ROM.

73
Capítulo 2. Asegurando su Red

Esta instalación permite al usuario local manipular estos dispositivos sin obtener el acceso de root,
por lo que se simplifican las tareas comunes para el usuario de consola.

Puede modificar la lista de dispositivos controlados por pam_console.so editando los siguientes
archivos:
• /etc/security/console.perms

• /etc/security/console.perms.d/50-default.perms

Puede cambiar los permisos de los otros dispositivos diferentes, además de los que se han
mostrado antes, o modificar los especificados por defecto. En lugar de modificar el archivo 50-
default.perms, debería crear uno nuevo (por ejemplo xx-name.perms) y luego ingresar las
modificaciones requeridas. El nombre del nuevo archivo modelo debe comenzar con un número
superior a 50 (por ejemplo 51-default.perms). Esto va a sustituir lo indicado en el archivo 50-
default.perms.

Advertencia
Si el archivo de configuración del administrador de gdm, kdm, o xdm ha sido
alterado de manera tal que permita que usuarios remotos puedan ingresar y si el
equipo está configurado para ejecutarse en el nivel de ejecución 5, es aconsejable
modificar las directivas <console> y <xconsole>del archivo /etc/security/
console.perms con los siguientes valores:

<console>=tty[0-9][0-9]* vc/[0-9][0-9]* :0\.[0-9] :0


<xconsole>=:0\.[0-9] :

Esto evita que los usuarios ganen acceso a dispositivos y aplicaciones restringidas
en la máquina.

Si el archivo de configuración del administrador de gdm, kdm, o xdm ha sido


modificado de modo que permita que usuarios remotos puedan ingresar, y si el
equipo está configurado para ejecutarse en cualquier nivel de ejecución multiusuario
además del nivel de ejecución 5, es aconsejable eliminar completamente la directiva
<xconsole>, al mismo tiempo que modificar la directiva <console> con el valor
siguiente:

<console>=tty[0-9][0-9]* vc/[0-9][0-9]*

2.4.7.2. Acceso a aplicaciones


El usuario de la consola también tiene el acceso a ciertos programas configurados para usar el
directorio /etc/security/console.apps/.

Este directorio contiene los archivos de configuración que habilitan al usuario de la consola correr
ciertas aplicaciones de /sbin y /usr/sbin.

Estos archivos de configuración tienen el mismo nombre de las aplicaciones que configuran.

Un grupo notable de aplicaciones a los que el usuario de consola tiene acceso son tres programas
que apagan o reinician el sistema:

74
Recursos adicionales

• /sbin/halt

• /sbin/reboot

• /sbin/poweroff

Debido a que estas aplicaciones utilizan PAM, llaman al módulo pam_console.so como un requisito
para usarlas.

Diríjase a la Sección 2.8.9.1, “Documentación instalada del cortafuego” para obtener mayor
información.

2.4.8. Recursos adicionales


Los siguientes recursos explican más detalladamente los métodos para usar y configurar PAM.
Además de estos recursos, lea los archivos de configuración de PAM en el sistema para entender
mejor cómo están estructurados.

2.4.8.1. Documentación de PAM instalada


• Las páginas man relacionadas con PAM — Hay varias páginas man para las distintas aplicaciones
y archivos de configuración involucrados con PAM. La siguiente es un alista de alguna de las
páginas man más importantes.

Archivos de configuración
• pam — Buena información de presentación de PAM, que incluye la estructura y propósito de
los archivos de configuración de PAM.

Fíjese que en esta página man se hace referencia tanto al archivo /etc/pam.conf como a
los archivos de configuración individuales del directorio /etc/pam.d/. Por defecto, Fedora
utiliza los archivos de configuración individual del directorio, ignorando el archivo /etc/
pam.conf, aún si efectivamente existe.

• pam_console — Describe el propósito del módulo pam_console.so. También describe la


sintaxis apropiada para una entrada dentro del archivo de configuración de PAM.

• console.apps — Describe el formato del archivo de configuración /etc/security/


console.apps, que define qué aplicaciones son accesibles por el usuario de consola
asignado por PAM.

• console.perms — Describe el formato del archivo de configuración /etc/security/


console.perms, que especifica los permisos del usuario de consola asignados por PAM.

• pam_timestamp — Describe el módulo pam_timestamp.so.

• /usr/share/doc/pam-<version-number> — Contiene una Guía de administradores de


sistema, un Manual para escritores de módulos, y el Manual para desarrolladores de aplicación, y
al mismo tiempo, una copia del estándar PAM DCE-RFC 86.0, donde <version-number> es el
número de la versión de PAM.

• /usr/share/doc/pam-<version-number>/txts/README.pam_timestamp — Contiene
información relacionada con el módulo PAM pam_timestamp.so, donde <version-number> es
el número de versión de PAM.

75
Capítulo 2. Asegurando su Red

2.4.8.2. Sitios web útiles sobre PAM


• http://www.kernel.org/pub/linux/libs/pam/ — El sitio web principal de distribución del proyecto Linux-
PAM, que contiene información relacionada con varios módulos PAM, una sección con respuestas
a las preguntas más usuales (FAQ, por las siglas en inglés de Frequently Asked Questions), y
documentación adicional acerca de PAM.

Nota
La documentación en el sitio web de arriba es para la última versión de desarrollo
lanzada de PAM y puede no ser 100% precisa para la versión de PAM incluida en
Fedora.

2.5. Encapsuladores TCP y xinetd


Controlar el acceso a los servicios de red es una de las tareas más importantes que deben realizar
los administradores de servidor relacionadas con la seguridad. Fedora ofrece diferentes herramientas
para este propósito. Por ejemplo, filtros de cortafuegos basados en iptables, no permiten el ingreso
a la configuración del kernel a todos aquellos paquetes que no hayan sido solicitados. Para los
servicios de red que lo utilizan, los Encapsuladores TCP añaden una capa de protección adicional al
definir los equipos que tienen o no permitida la conexión a los servicios de red "encapsulados". Tal
servicio de red encapsulado es el súper servidor xinetd. Este servicio es llamado un súper servidor
debido a que controla las conexiones de una serie de subservicios de red y posteriormente refina el
control de acceso.

Figura 2.9, “Control de acceso a servicios de red” es una ilustración básica acerca de cómo estas
herramientas trabajan conjuntamente para proteger los servicios de red.

76
Encapsuladores TCP

Figura 2.9. Control de acceso a servicios de red

El siguiente capítulo se concentra en el papel que tienen de los encapsuladores TCP y xinetd al
controlar acceso a los servicios de red, y analiza de qué manera estas herramientas pueden ser
utilizadas para mejorar tanto el registro como la administración de su utilización. Para obtener mayor
información utilizando cortafuegos con iptables, vea la Sección 2.9, “IPTables”.

2.5.1. Encapsuladores TCP


El paquete de los encapsuladores TCP (tcp_wrappers) se encuentra instalado por defecto y ofrece
control de acceso a los servicios de red basado en los equipos. El componente más importante
de este paquete es la biblioteca /usr/lib/libwrap.a. En términos generales, un servicio
encapsulado por TCP es un servicio que ha sido compilado con la biblioteca libwrap.a.

Cuando se realiza un intento de conexión a un servicio encapsulado por TCP, el servicio primero
consulta los archivos de acceso del equipo (/etc/hosts.allow y /etc/hosts.deny) para
determinar en qué casos el equipo tiene permitida la conexión. Generalmente, luego utiliza al
demonio syslog (syslogd) para escribir el nombre del cliente solicitante y del servicio solicitado en
los archivos /var/log/secure o /var/log/messages.

Si un cliente tiene permitida la conexión, los encapsuladores TCP liberan el control de la conexión al
servicio solicitado, y abandonan el proceso de comunicación entre el cliente y el servidor.

77
Capítulo 2. Asegurando su Red

Además del control de acceso y registro, los encapsuladores TCP pueden ejecutar comandos para
interactuar con el cliente antes que sea negado el control de la conexión, o antes de abandonar el
proceso de conexión al servicio de red solicitado.

Debido a que los encapsuladores TCP son un valioso agregado al equipo de herramientas de
seguridad que cualquier administrador de servidor posee, muchos servicios de red dentro de Fedora
se encuentran enlazados con la biblioteca libwrap.a. Algunas de estas aplicaciones son /usr/
sbin/sshd, /usr/sbin/sendmail, y /usr/sbin/xinetd.

Nota
Para determinar si un servicio de red ejecutable está enlazado con libwrap.a,
ingrese el siguiente comando como usuario root:

ldd <binary-name> | grep libwrap

Reemplace <binary-name> con el nombre del servicio de red ejecutable.

Si el comando no le devuelve ninguna información, entonces el servicio de red no se


encuentra enlazado con libwrap.a.

El siguiente ejemplo inidica que /usr/sbin/sshd se encuentra enlazado con


libwrap.a:

[root@myServer ~]# ldd /usr/sbin/sshd | grep libwrap


libwrap.so.0 => /lib/libwrap.so.0 (0x00655000)
[root@myServer ~]#

2.5.1.1. Ventajas de los Encapsuladores TCP


Los encapsuladores TCP ofrecen las siguientes ventajas en comparación con otras técnicas para el
control de servicios de red:

• Transparencia tanto para el cliente como para el servicio de red encapuslado — Tanto el cliente que
está conectándose como el servicio de red, no tienen conocimiento de que los encapsuladores TCP
están siendo utilizados. Los usuarios legítimos se registran y conectan a los servicios solicitados,
mientras que no se realizan las conexiones pedidas por clientes no autorizados.

• Administración centralizada de múltiples protocolos — los encapsuladores TCP operan en forma


separada de los servicios de red que protegen, permitiendo así que varias aplicaciones de servidor
compartan un conjunto común de archivos de configuración de control de acceso, haciendo posible
que la administración sea más sencilla.

2.5.2. Archivos de configuración de los encapsuladores TCP


Para determinar si a un cliente le es permitido conectarse a un servidor, los encapsuladores TCP
consultan los dos archivos siguientes, comúnmente denominados archivos de acceso de equipos:

• /etc/hosts.allow

• /etc/hosts.deny

78
Archivos de configuración de los encapsuladores TCP

Cuando un servicio encapsulado por TCP recibe una petición de un cliente, realiza los siguientes
pasos:

1. Consulta con /etc/hosts.allow. — El servicio encapsulado por TCP analiza secuencialmente


el archivo /etc/hosts.allow y aplica la primera regla especificada para ese servicio. Si
encuentra una regla concordante, permite la conexión. Si no, avanza al siguiente paso.

2. Consulta con /etc/hosts.deny. — El servicio encapsulado por TCP analiza secuencialmente


el archivo /etc/hosts.deny. Si encuentra una regla concordante, niega la conexión. Si no,
permite el acceso al servicio.

Las siguientes son cuestiones importantes para considerar cuando se utilice encapsuladores TCP
para proteger servicios de red:

• Debido a que primero se aplican las reglas de acceso contenidas en hosts.allow, dejan un
precedente sobre las reglas especificadas en hosts.deny. De este modo, si el acceso a un
servicio es permitido en hosts.allow, será ignorada una regla negando el acceso al mismo
servicio del archivo hosts.deny.

• Las reglas de cada archivo son leídas desde arriba hacia abajo, y la primera regla concordante
para un servicio dado es la única que será aplicada. El orden de las reglas es extremadamente
importante.

• Si no se encuentran reglas para el servicio en el archivo, o el archivo no existe, el acceso al servicio


es permitido.

• Los servicios encapsulados por TCP no conservan las reglas desde los archivos de acceso de los
equipos, de modo que cualquier cambio en hosts.allow o hosts.deny, tienen efecto inmediato,
sin necesidad de reiniciar los servicios de red.

Advertencia
Si la última línea del archivo de acceso de un equipo no es un caracter de tipo
nueva línea (creado al presionar la tecla Enter key), la última regla del archivo
fallará y un error será registrado o bien en /var/log/messages, o bien en /var/
log/secure. Este es el mismo caso de una regla que abarca líneas múltiples sin
utilizar el carcater de línea invertida. El siguiente ejemplo muestra la sección que
nos interesa del fracaso de una regla debido a alguna de las circunstancias recién
descritas:

warning: /etc/hosts.allow, line 20: missing newline or line too long

2.5.2.1. Formateo de las reglas de acceso


El formato tanto de /etc/hosts.allow como de /etc/hosts.deny es el mismo. Cada regla
debe estar en su propia línea. Líneas vacías o líneas que empiezan con el símbolo numeral (#) son
ignoradas.

Cada regla utiliza el siguiente formato básico para controlar el acceso a los servicios de red:

<daemon list>: <client list> [: <option>: <option>: ...]

79
Capítulo 2. Asegurando su Red

• <daemon list> — Una lista separada por comas de nombres de procesos (y no el nombre
de los servicios), o el comodín ALL. La lista del demonio también acepta operadores (vea la
Sección 2.5.2.1.4, “Operadores”) para permitir mayor flexibilidad.

• <client list> — Una lista separada por comas de nombres de equipos, direcciones IP de los
equipos, patrones especiales o comodines que identifican a los equipos afectados por la regla. La
lista de cliente también acepta los operadores mostrados en la Sección 2.5.2.1.4, “Operadores”
para permitir mayor flexibilidad.

• <option> — Una acción, o una lista de acciones optativas separadas por puntos y comas (;), a
realizarse cuando la regla sea disparada. Los campos de opción tienen soporte para expansiones,
comandos de apertura de terminales, permitir o negar acceso, y modificar la conducta de registro.

Nota
Puede encontrarse mayor información acerca de los términos recién vistos en otras
partes de esta Guía:

• Sección 2.5.2.1.1, “Comodines”

• Sección 2.5.2.1.2, “Patrones”

• Sección 2.5.2.2.4, “Expansiones”

• Sección 2.5.2.2, “Campos de opción”

A continuación se muestra el ejemplo de una regla básica de acceso de equipos:

vsftpd : .example.com

Esta regla está indicando a los encapsuladores TCP que observen las conexiones del demonio
FTP (vsftpd) desde cualquier equipo en el dominio ejemplo.com. Si esta regla aparece en
hosts.allow, la conexión es aceptada. Si esta regla figura en hosts.deny, la conexión es negada.

El siguiente ejemplo de regla de acceso de equipos es más compleja y utiliza dos campos de
opciones:

sshd : .example.com \ : spawn /bin/echo `/bin/date` access denied>>/var/log/sshd.log \ : deny

Fíjese que cada campo de opción es precedido por la barra invertida (\). La utilización de esta barra
previene el fallo de la regla debido a su longitud.

Esta regla de ejemplo establece que si se intenta establecer una conexión con el demonio SSH
(sshd) desde algún equipo del dominio ejemplo.com, sea ejecutado el comando echo para añadir
dicho intento en un archivo especial de registro, y negar la conexión. Debido a que la directiva
opcional deny es utilizada, esta línea niega el acceso aún si figura en el archivo hosts.allow. Para
conocer en detalle otras opciones disponibles, vea la Sección 2.5.2.2, “Campos de opción”.

2.5.2.1.1. Comodines
Los comodines le permiten a los encapsuladores TCP poder corresponderse más fácilmente con
grupos de demonios de equipos. Son más frecuentemente utilizados en el campo lista de cliente de
las reglas de acceso.

80
Archivos de configuración de los encapsuladores TCP

Los siguientes comodines están disponibles:

• ALL — Se corresponde con todo. Puede ser utilizado tanto para la lista del demonio como con la
lista del cliente.

• LOCAL — Se corresponde con cualquier equipo que no contenga un punto (.), como por ejemplo el
equipo local.

• KNOWN — Se corresponde con cualquier equipo cuyo nombre y la dirección sean conocidas o
donde el usuario sea conocido.

• UNKNOWN — Se corresponde con cualquier equipo cuyo nombre o dirección sean desconocidos, o
donde el usuario sea desconocido.

• PARANOID — Se corresponde con cualquier equipo cuyo nombre no concuerde con su dirección.

Importante
Los comodines KNOWN, UNKNOWN, y PARANOID deben ser utilizados con cuidado, ya
que dependen del servidor DNS que se esté utilizando para su operación correcta.
Cualquier interrupción de la resolución de nombres podría causar que se les niegue
acceso al servicio a los usuarios legítimos.

2.5.2.1.2. Patrones
Pueden utilizarse patrones en el campo cliente de las reglas de acceso para especificar grupos de
equipos de clientes en forma más precisa.

A continuación mostramos una lista con patrones comunes para entradas en el campo cliente:

• Nombre de equipo empezando con un punto (.) — Colocar un punto al comienzo del nombre de un
equipo hace que se correspondan todos los equipos que comparten los componentes del nombre
en la lista. El siguiente ejemplo se aplica a cualquier equipo dentro del dominio ejemplo.com:

ALL : .example.com

• Dirección IP que finaliza con un punto (.) — Colocar un punto al finalizar una dirección IP hace que
se correspondan todos los equipos que comparten los grupos numéricos iniciales de una dirección
IP. El siguiente ejemplo se aplica a cualquier equipo dentro de la red 192.168.x.x:

ALL : 192.168.

• Dirección IP/par de máscara de red — Las expresiones de máscaras de red también pueden
utilizarse como un patrón para controlar el acceso de un grupo determinado de direcciones IP. El
siguiente ejemplo se aplica a cualquier equipo con un rango de direcciones desde 192.168.0.0
hasta 192.168.1.255:

ALL : 192.168.0.0/255.255.254.0

81
Capítulo 2. Asegurando su Red

Importante
Cuando se esté trabajando en el espacio de direcciones IPv4, la longitud del
par dirección/prefijo (prefixlen) en las declaraciones (notación CIDR) no están
soportadas. Solo las reglas IPv6 pueden utilizar este formato.

• [direcciones IPv6]/par prefixlen — los pares [red]/prefixlen también pueden ser utilizados
como un patrón para controlar el acceso de un grupo determinado de direcciones IPv6. El
siguiente ejemplo se aplica a cualquier equipo en un rango de 3ffe:505:2:1:: hasta
3ffe:505:2:1:ffff:ffff:ffff:ffff:

ALL : [3ffe:505:2:1::]/64

• El asterisco (*) — Los asteriscos pueden ser utilizados para hacer concordar grupos enteros de
nombres de equipos o direcciones IP, siempre y cuando no estén mezclados en listas de clientes
que contengan otro tipo de patrones. El siguiente ejemplo se puede aplicar a cualquier equipo
dentro del dominio ejemplo.com:

ALL : *.example.com

• La barra (/) — Si una lista de cliente comienza con una barra, será tratada como un nombre
de archivo. Esto es útil si se necesitan reglas especificando grandes cantidades de equipos. El
siguiente ejemplo referencia encapsuladores TCP al archivo /etc/telnet.hosts para todas las
conexiones Telnet.

in.telnetd : /etc/telnet.hosts

Existen otros patrones menos utilizados que también aceptan los encapsuladores TCP. Para obtener
mayor información, vea la página man 5 de hosts_access.

Advertencia
Sea muy cuidadoso al utilizar nombres de equipos y de dominios. Los atacantes
pueden utilizar una gran variedad de trucos para sortear dificultades y obtener
resoluciones de nombres adecuadas. Además, la interrupción del servicio DNS
impide la utilización de los servicios de red incluso a los usuarios autorizados. De
modo que, lo mejor es utilizar direcciones IP siempre que sea posible.

2.5.2.1.3. Portmap y encapsuladores TCP


La implementación de portmap de los Encapsuladores TCP no tiene soporte para búsqueda
de equipos, lo que significa que portmap no puede utilizar los nombres de los equipos para
identificarlos. Por lo tanto, las reglas de control de acceso para portmap en hosts.allow o
hosts.deny, deben ser direcciones IP, o la palabra clave ALL para especificar equipos.

Los cambios en las reglas de control de acceso de portmap podrían no tener efecto inmediatamente.
Tal vez necesite reiniciar el servicio portmap.

82
Archivos de configuración de los encapsuladores TCP

Servicios muy utilizados, como NIS o NFS, dependen de portmap para funcionar, de modo que
tenga en cuenta estas limitaciones.

2.5.2.1.4. Operadores
Hoy en día, las reglas de control de acceso aceptan un operador, EXCEPT. Puede ser utilizado tanto
en la lista de demonio como en la lista cliente de una regla.

El operador EXCEPT permite excepciones específicas para ampliar las correspondencias dentro de
una misma regla.

En el siguiente ejemplo de un archivo hosts.allow, todos los equipos ejemplo.com tienen


permitido conectarse a todos los servicios, exepcto cracker.ejemplo.com:

ALL: .example.com EXCEPT cracker.example.com

En otro ejemplo de un archivo hosts.allow, los clientes de la red 192.168.0.x pueden utilizar
todos los servicios con excepción de FTP:

ALL EXCEPT vsftpd: 192.168.0.

Nota
En términos de organización, generalmente es más sencillo evitar la utilización de
operadores EXCEPT. Esto permite que otros administradores analicen rápidamente
los archivos apropiados para ver a qué equipos se les permite o se les niega el
acceso a los servicios, sin tener que organizar los operadores EXCEPT.

2.5.2.2. Campos de opción


Además de las reglas básicas que permiten o que niegan el acceso, la implementación de
encapsuladores TCP de Fedora soporta extensiones al lenguaje de control de acceso a
través de campos de opción. Al utilizar los campos de opción en reglas de acceso de equipos,
los administradores pueden realizar una variedad de tareas como por ejemplo modificar el
comportamiento de los registros, consolidar control de acceso e iniciar comandos de terminal.

2.5.2.2.1. Registro
Los campos de opción permiten que los administradores modifiquen fácilmente la herramienta de
registro y el nivel de prioridad para una regla, utilizando la directiva severity.

En el siguiente ejemplo, las conexiones con el demonio SSH desde cualquier equipo del dominio
ejemplo.com son registradas en la herramienta authpriv syslog establecida por defecto (debido
a que ningún valor de la herramienta es especificado) con una prioridad de emerg:

sshd : .example.com : severity emerg

Es también posible especificar una herramienta utilizando la opción severity. El siguiente ejemplo
registra cualquier intento de conexión SSH realizada por equipos del dominio ejemplo.com a la
herramienta local0, con una prioridad de alert:

83
Capítulo 2. Asegurando su Red

sshd : .example.com : severity local0.alert

Nota
En la práctica, este ejemplo no funciona hasta que el demonio syslog (syslogd)
sea configurado para registrarse en la herramienta local0. Para obtener mayor
información acerca de cómo configurar herramientas de registro establecidas por
defecto, vea la página man de syslog.conf.

2.5.2.2.2. Control de acceso


Los campos de opción también le permiten a los administradores permitir o negar explícitamente
equipos mediante una sola regla, añadiéndole la directiva allow o deny como la opción final.

Por ejemplo, las dos reglas siguientes permiten conexions SSH desde client-1.example.com,
pero niegan conexiones de client-2.example.com:

sshd : client-1.example.com : allow


sshd : client-2.example.com : deny

Al permitir control de acceso sobre un fundamento de reglas, el campo de opción permite que los
administradores consoliden todas los reglas de acceso en un solo archivo: o bien hosts.allow, o
bien hosts.deny. Algunos administradores consideran a esto como una forma sencilla de organizar
las reglas de acceso.

2.5.2.2.3. Comandos de la consola


Los campos de opción permiten reglas de acceso para iniciar comandos de consola mediante las dos
directivas siguientes:

• spawn — Inicia un comando de terminal como un proceso hijo. Esta directiva puede realizar tareas
como ser la utilización de /usr/sbin/safe_finger para obtener mayor información acerca
del cliente que está realizando una determinada petición, o crear archivos de registro especiales
mediante la utilización del comando echo.

En el siguiente ejemplo, los clientes del dominio ejemplo.com que intentan acceder a servicios
Telnet, son registrados silenciosamente en un archivo especial:

in.telnetd : .example.com \
: spawn /bin/echo `/bin/date` from %h>>/var/log/telnet.log \
: allow

• twist — Reemplaza el servicio solicitado con el comando indicado. Esta directiva es a menudo
utilizada para establecer trampas a los intrusos (también denominadas "tacitas de miel"). Puede
también ser utilizada para enviar mensajes a los clientes que estén conectándose. La directiva
twist debe tener lugar al final de la línea de la regla.

En el ejemplo siguiente, a los clientes que intentan acceder a los servicios FTP desde el dominio
ejemplo.com, se les envía un mensaje utilizando el comando echo.

vsftpd : .example.com \

84
Archivos de configuración de los encapsuladores TCP

: twist /bin/echo "421 This domain has been black-listed. Access denied!"

Para obtener mayor información acerca de las opciones de comandos de terminal, vea la página man
de hosts_options.

2.5.2.2.4. Expansiones
Cuando se utilizan junto a las directivas spawn y twist, las expansiones proveen información acerca
del cliente, servidor, y los procesos involucrados.

La siguiente es una lista de expansiones soportadas:

• %a — Informa la dirección IP del cliente.

• %A — Informa la dirección IP del servidor.

• %c — Informa una gran cantidad de datos del cliente, como ser por ejemplo, el nombre de usuario y
el nombre del equipo, o el nombre de usuario y la dirección IP.

• %d — Informa el nombre del demonio encargado del proceso.

• %h — Informa el nombre del equipo del cliente (o la dirección IP, si es que el nombre del equipo no
está disponible).

• %H — Informa el nombre del equipo del servidor (o su dirección IP, en caso que el nombre no esté
disponible).

• %n — Informa el nombre del equipo cliente. Si no está disponible, se muestra unknown. Si el


nombre del equipo y la dirección del cliente no concuerdan, se muestra paranoid.

• %N — Informa el nombre del equipo del servidor. Si no está disponible, se muestra unknown. Si el
nombre del equipo del servidor y la dirección no concuerdan, se muestra paranoid.

• %p — Informa el ID del proceso del demonio.

• %s — Informa diferentes tipos de datos acerca del servidor, como ser por ejemplo, si el proceso del
demonio y la dirección del equipo o dirección IP del servidor.

• %u — Informa el nombre de usuario del cliente. Si no está disponible, se muestra unknown.

La siguiente regla de ejemplo utiliza una expansión junto con el comando spawn para identificar el
equipo del cliente en un archivo de registro modificado.

Cuando se intenten establecer conexiones al demonio SSH (sshd) desde un equipo del dominio
ejemplo.com, ejecute el comando echo para registrar el intento en un archivo especial, incluyendo
el nombre del cliente (utilizando la expanción %h).

sshd : .example.com \
: spawn /bin/echo `/bin/date` access denied to %h>>/var/log/sshd.log \
: deny

De manera similar, las expansiones pueden ser utilizadas para personalizar mensajes enviados al
cliente. En el siguiente ejemplo, a los clientes que intentan acceder a servicios FTP desde el dominio
ejemplo.com, se les informa que han sido eliminados del servidor:

vsftpd : .example.com \

85
Capítulo 2. Asegurando su Red

: twist /bin/echo "421 %h has been banned from this server!"

Para obtener una explicación completa de las expansiones disponibles, y al mismo tiempo conocer
opciones adicionales de control de acceso, vea la sección 5 de las páginas man de hosts_access
(man 5 hosts_access), y la página man de hosts_options.

Para obtener mayor información acerca de los encapsuladores TCP, vea la Sección 2.5.5, “Recursos
adicionales”.

2.5.3. xinetd
El demonio xinetd es un súper servicio encapsulado por TCP, que controla el acceso a un
subconjunto de servicios de red muy utilizados, como por ejemplo FTP, IMAP y Telnet. También
ofrece opciones de configuración de servicio específicas para control de acceso, registros mejorados,
uniones, redirecciones y control de la utilización de los recursos.

Cuando un cliente intenta conectarse a un servicio de red controlado por xinetd, el súper servicio
recibe la petición y verifica la existencia de reglas de control de acceso para encapsuladores TCP.

Si el acceso es permitido, xinetd verifica que la conexión sea permitida bajo sus propias reglas de
acceso para ese servicio. También verifica que el servicio pueda tener más recursos disponibles, y
que no esté en contradicción con ninguna otra regla definida.

Si todas estas condiciones se cumplen (es decir, el acceso al servicio es permitido; el servicio no ha
alcanzado el límite de sus recursos; y el servicio no entra en colisión con ninguna otra regla definida),
entonces xinetd inicia una instancia del servicio solicitado y le pasa el control de la conexión. Luego
que la conexión haya sido establecida, xinetd deja de formar parte en la comunicación entre el
cliente y el servidor.

2.5.4. Archivos de configuración de xinetd


Los archivos de configuración para xinetd son los siguientes:

• /etc/xinetd.conf — El archivo de configuración general de xinetd.

• /etc/xinetd.d/ — El directorio continente de todos los archivos específicos para cada servicio.

2.5.4.1. El archivo /etc/xinetd.conf


El archivo /etc/xinetd.conf contiene parámetros de configuraciones generales que afectan cada
servicio controlado por xinetd. Es leido cuando el servicio xinetd es iniciado por primera vez, de
modo que para que los cambios en la configuración tengan efecto, habrá que reiniciar el servicio
xinetd. El siguiente es un ejemplo del archivo /etc/xinetd.conf.

defaults
{
instances = 60
log_type = SYSLOG authpriv
log_on_success = HOST PID
log_on_failure = HOST
cps = 25 30
}
includedir /etc/xinetd.d

86
Archivos de configuración de xinetd

Estas lineas controlan los siguientes aspectos de xinetd:

• instances — Indica el número máximo de peticiones simultáneas que puede procesar xinetd.

• log_type — Configura xinetd para utilizar la herramienta de registro authpriv, que guarda
entradas de registro en el archivo /var/log/secure. Agregar una directiva como FILE /var/
log/xinetdlog podría crear un archivo de registro modificado denominado xinetdlog en el
directorio /var/log/.

• log_on_success — Configura xinetd para registrar intentos de conexión exitosos. Por defecto,
son registradas la dirección IP del equipo remoto y los ID de los procesos del servidor que está
procesando la petición.

• log_on_failure — Configura xinetd para registrar intentos de conexión fallidos, o casos en


que la conexión fue negada.

• cps — Configura xinetd para permitir más de 25 conexiones por segundo hacia cualquier servicio
dado. Si el límite es superado, el servicio se retira durante 30 segundos.

• includedir /etc/xinetd.d/ — Incluye opciones declaradas en los archivos de configuración


propios de cada servicio, ubicados en el directorio /etc/xinetd.d/. Para obtener mayor
infirmación, consulte Sección 2.5.4.2, “El directorio /etc/xinetd.d/”.

Nota
A menudo, tanto las configuraciones log_on_success como log_on_failure
establecidas en /etc/xinetd.conf son modificadas posteriormente en los
archivos de configuración propios de cada servicio. Por lo tanto existirá mayor
información en el archivo de registro de un servicio dado, que la que pueda indicar
el archivo /etc/xinetd.conf. Para mayor información, vea la Sección 2.5.4.3.1,
“Opciones para registrado”.

2.5.4.2. El directorio /etc/xinetd.d/


El directorio /etc/xinetd.d/ contiene los archivos de configuración para cada servicio
administrado por xinetd, y los nombres de los archivos correspondientes al servicio. Del mismo
modo que con xinetd.conf, este directorio es de solo lectura cuando el servicio xinetd es
iniciado. Para que cualquier cambio pueda tener efecto, el administrador debe reiniciar el servicio
xinetd.

El formato de los archivos en el directorio /etc/xinetd.d/ utiliza las mismas convenciones que /
etc/xinetd.conf. La principal razón por la que la configuración de cada servicio sea almacenada
en un archivo diferente, es para hacer más sencilla la personalización, y menos propensa a modificar
otros servicios.

Para adquirir una mejor comprensión acerca de cómo están estructurados estos archivos, prestele
atención al archivo /etc/xinetd.d/krb5-telnet:

service telnet
{
flags = REUSE
socket_type = stream
wait = no

87
Capítulo 2. Asegurando su Red

user = root
server = /usr/kerberos/sbin/telnetd
log_on_failure += USERID
disable = yes
}

Estas líneas controlan numerosos aspectos del servicio telnet:

• service — Especifica el nombre del servicio, generalmente uno de aquellos listados en el archivo
/etc/services

• flags — Establece alguno de los atributos para la conexión. REUSE le indica a xinetd que vuelva
a utilizar el socket para una conexión Telnet.

Nota
La marca REUSE es obsoleta. Todos los servicios hoy en día utilizan la marca
REUSE.

• socket_type — Establece el tipo de socket de red a stream.

• wait — Especifica cuando el servicio es tratado como de uno solo hilo de ejecución (yes) o como
de múltiples hilos de ejecución (no).

• user — Especifica bajo qué ID de usuario se está ejecutando el proceso.

• server — Especifica el binario ejecutable a ser lanzado.

• log_on_failure — Especifica parámetros de registro para log_on_failure, además de los


que ya están definidos en xinetd.conf.

• disable — Especifica cuándo el servicio debe ser desactivado (yes), o activado (no).

Para obtener mayor información sobre estas opciones y su uso, consulte la página man de
xinetd.conf.

2.5.4.3. Alteración de los archivos de configuración de xinetd


Existen disponibles una variedad de directivas protegidas por xinetd. En esta sección se detallan
algunas de las opciones más comunmente utilizadas.

2.5.4.3.1. Opciones para registrado


Las siguientes opciones de registro se encuentran disponibles tanto para /etc/xinetd.conf como
para los archivos de configuración del servicio específico en el directorio /etc/xinetd.d/.

La siguiente es una lista de las opciones de registro más utilizadas:

• ATTEMPT — Registra el hecho de haberse realizado un intento fallido (log_on_failure).

• DURATION — Registra el período de tiempo total en que ha sido utilizado el servicio por un sistema
remoto (log_on_success).

• EXIT — Registra el estado de salida, o la señal de finalización del servicio (log_on_success).

88
Archivos de configuración de xinetd

• HOST — Registra la dirección IP del equipo remoto (log_on_failure y log_on_success).

• PID — Registra el ID de los procesos del servidor que recibe el pedido (log_on_success).

• USERID — Registra a los usuarios remotos que utilizan el método definido en RFC 1413 para todos
los servicios stream de aspectos múltiples (log_on_failure ylog_on_success).

Para obtener una lista completa de opciones de registro, consulte la página man de xinetd.conf.

2.5.4.3.2. Opciones para el control de acceso


Los usuarios de los servicios xinetd pueden elegir entre utilizar las reglas de acceso de los equipos
con encapsuladores TCP, o proveer control de acceso mediante los archivos de configuración de
xinetd, o una mezcla de ambos. Para obtener mayor información acerca del control de acceso de
los equipos con encapsuladores TCP, consulte la Sección 2.5.2, “Archivos de configuración de los
encapsuladores TCP”.

En esta sección se desarrolla la utilización de xinetd para controlar el acceso a los servicios.

Nota
Al contrario que con los encapsuladores TCP, las modificaciones al control de acceso
sólo tienen efecto si el administrador de xinetd reinicia el servicio xinetd.

De manera similar, al contrario que los encapsuladores TCP, el control de acceso


mediante xinetd solo afecta a los servicios controlados por xinetd.

El control de acceso de los equipos con xinetd difiere del método utilizado por los Encapsuladores
TCP. Mientras que los Encapsuladores TCP colocan todas las configuraciones de acceso en dos
archivos, /etc/hosts.allow y /etc/hosts.deny, el control de acceso de xinetd se encuentra
en cada uno de los archivos de configuración de los servicios dentro del directorio /etc/xinetd.d/.

Las siguientes opciones de acceso de equipos están soportadas por xinetd:

• only_from — Permite la utilización del servicio sólo a los equipos especificados.

• no_access — Impide la utilización del servicio a los equipos indicados.

• access_times — Establece el período de tiempo en que un servicio particular puede ser utilizado.
Este período debe ser indicado con notaciones en formato de 24 horas, HH:MM-HH:MM.

Las opciones only_from y no_access pueden utilizar una lista de direcciones IP o nombres
de archivo, o pueden especificar una red entera. Del mismo modo que los encapsuladores TCP,
combinar el control de acceso de xinetd con la configuración mejorada de registro puede aumentar
la seguridad evitando las peticiones de los equipos bloqueados, al mismo tiempo que se registra cada
intento de conexión.

Por ejemplo, el siguiente archivo /etc/xinetd.d/telnet puede utilizarse para bloquear accesos
Telnet desde un grupo de determinado, y restringir el tiempo total en que pueden registrarse incluso
los usuarios autorizados:

service telnet
{

89
Capítulo 2. Asegurando su Red

disable = no
flags = REUSE
socket_type = stream
wait = no
user = root
server = /usr/kerberos/sbin/telnetd
log_on_failure += USERID
no_access = 172.16.45.0/24
log_on_success += PID HOST EXIT
access_times = 09:45-16:15
}

En este ejemplo, cuando un sistema de cliente de la red 10.0.1.0/24, como por ejemplo 10.0.1.2
intenta acceder al servicio Telnet, recibe el siguiente mensaje:

Connection closed by foreign host.

Además, sus intentos de registro son almacenados en /var/log/messages de la manera siguiente:

Sep 7 14:58:33 localhost xinetd[5285]: FAIL: telnet address from=172.16.45.107


Sep 7 14:58:33 localhost xinetd[5283]: START: telnet pid=5285 from=172.16.45.107
Sep 7 14:58:33 localhost xinetd[5283]: EXIT: telnet status=0 pid=5285 duration=0(sec)

Al utilizar encapsuladores TCP junto con control de acceso xinetd, es importante comprender la
relación entre ambos mecanismos de control de acceso.

La siguiente es la secuencia de eventos que realiza xinetd cada vez que un cliente solicite una
conexión:

1. El demonio xinetd obtiene las reglas de acceso de los equipos con encapsuladores TCP,
utilizando una llamada de biblioteca libwrap.a. Si una regla de negación concuerda con el
cliente, se abandona la conexión. Si una regla de conexión concuerda con el cliente, la conexión
es entregada a xinetd.

2. El demonio xinetd verifica sus propias reglas de control de acceso tanto para el servicio
xinetd, como para el servicio solicitado. Si una regla de negación concuerda con el cliente,
se abandona la conexión. De lo contrario, xinetd inicia una instancia del servicio solicitado y
entrega el control de la conexión a ese servicio.

Importante
Hay que tener cuidado al utilizar controles de acceso con encapsuladores TCP, junto
con controles de acceso de xinetd. Un error de configuración puede causar efectos
no deseados.

2.5.4.3.3. Opciones de unión y redirección


Los archivos de configuración del servicio xinetd tienen soporte para asociar el servicio con una
dirección IP, y redireccionar las peticiones entrantes para ese servicio hacia otra dirección IP, nombre
de equipo, o puerto.

Esta asociación es controlada con la opción bind en el archivo de configuración específico de cada
servicio, y enlaza ese servicio con una dirección IP en el sistema. Cuando esto es configurado, la

90
Archivos de configuración de xinetd

opción bind sólo acepta peticiones para acceder al servicio de la dirección IP correcta. Puede utilizar
este método para asociar diferentes servicios con diferentes interfases de acuerdo a sus propias
necesidades.

Esto es especialmente útil para los sistemas con adaptadores de red múltiples, o con múltiples
direcciones IP. En tales sistemas, los servicios no seguros (Telnet, por ejemplo), pueden ser
configurados para que sólo escuchen en una interfaz conectada con una red privada y no con una
interfaz conectada a Internet.

La opción redirect acepta una dirección IP o nombre de equipo seguido por un número de puerto.
Configura el servicio de modo tal de poder redireccionar cualquier petición para este servicio hacia
el equipo y número de puerto indicado. Esta herramienta puede ser utilizada para dirigirse hacia otro
número de puerto en el mismo sistema, redireccionar la petición hacia una dirección IP diferente en
la misma máquina, intercambiar la petición con un sistema y número de puerto totalmente diferente,
o combinar entre ellas cualesquiera de estas opciones. Un usuario conectándose con un servicio
determinado de un sistema, por lo tanto puede ser reruteado hacia otro sistema sin sufrir ningún tipo
de interrupción.

El demonio xinetd es capaz de lograr este redireccionamiento extendiendo un proceso activo


durante todo el tiempo que dure la conexión, entre la máquina del cliente que realiza la petición y el
equipo que efectivamente está proveyendo el servicio, transfiriendo los datos entre ambos sistemas.

Las ventajas de bind y redirect se hacen más evidentes cuando se utilizan de manera conjunta.
Al asociar un servicio con una dirección IP determinada de un sistema, y luego redireccionar las
peticiones para este servicio hacia una segunda máquina que sólo pueda ser vista por la primera,
puede entonces utilizarse un sistema interno que ofrezca servicios para una red comopletamente
diferente. Alternativamente, estas opciones pueden ser utilizadas para limitar la exposición de
un servicio determinado en una máquina hacia una dirección IP conocida, al mismo tiempo que
redirecciona cualquier petición para ese servicio hacia otra máquina configurada para ese propósito.

Por ejemplo, piense en un sistema que es utilizado como un cortafuegos con la siguiente
configuración para su servicio Telnet:

service telnet
{
socket_type = stream
wait = no
server = /usr/kerberos/sbin/telnetd
log_on_success += DURATION USERID
log_on_failure += USERID
bind = 123.123.123.123
redirect = 10.0.1.13 23
}

Las opciones bind y redirect de este archivo aseguran que el servicio Telnet en la máquina está
unido a la dirección IP externa (123.123.123.123), por medio de la cual se conecta a Internet.
Además, cualquier petición para el servicio Telnet enviada a 123.123.123.123, es redireccionada
hacia una dirección IP interna mediante un segundo adaptador de red (10.0.1.13) a la que
solo el cortafuegos y los sistemas internos pueden acceder. El cortafuegos entonces envía la
comunicacién entre ambos sistemas, y el sistema que está conectándose piensa que lo ha hecho con
123.123.123.123, cuando en realidad está conectado con una máquina diferente.

Esta herramienta es especialmente útil para usuarios con conexiones de banda ancha que sólo
posean una dirección IP fija. Si utilizan Traductores de Direcciones de Red (NAT por las iniciales

91
Capítulo 2. Asegurando su Red

en inglés de Network Adress Translations), los sistemas detrás de la máquina que hace de puerta
de enlace, que están utilizando direcciones IP sólo internas, no están disponibles desde fuera del
sistema de puerta de enlace. Sin embargo, cuando ciertos servicios controlados por xinetd son
configurados con las opciones bind y redirect, la máquina que hace de puerta de enlace puede
actuar como un proxy entre los sistemas externos y una máquina interna determinada que haya
sido configurada para ofrecer el servicio. Además, las diferentes opciones de registro y de control de
acceso de xinetd, están disponibles para establecer protección adicional.

2.5.4.3.4. Opciones de administración de recursos


El demonio xinetd puede ofrecer un nivel de protección básico para los ataques de Denegación de
Servicio (DoS, por las iniciales en inglés de Denial of Service). La siguiente es una lista de directivas
que pueden ayudar a disminuir la efectividad de tales ataques:

• per_source — Establece el número máximo de instancias para un servicio desde cada dirección
IP. Acepta solo valores enteros como argumentos y puede ser utilizada tanto en xinetd.conf
como en el archivo de configuración específico del servicio en cuestión del directorio xinetd.d/.

• cps — Establece el numero máximo de conexiones por segundo. Esta directiva necesita de dos
argumentos enteros separados por un espacio. El primer argumento es el número máximo de
conexiones permitidas por segundo al servicio. El segundo argumento es la cantidad de segundos
que xinetd debe esperar antes de reactivar el servicio. Acepta solo enteros como argumentos
y puede ser utilizado tanto en el archivo xinetd.conf, como el los archivos de configuración
propios de cada servicio en el directorio xinetd.d/.

• max_load — Define la utilización del CPU o el umbral de carga de utilización promedio de un


servicio. Acepta un número de punto flotante como argumento.

La carga promedio es una medida aproximada que indica la forma en que algunos procesos están
activos en un determinado período de tiempo. Para obtener mayor información acerca de la carga
promedio, vea los comandos uptime, who, y procinfo

Existen otras opciones disponibles para la administración de los recursos para xinetd. Para obtener
mayor información, consulte la página man de xinetd.conf.

2.5.5. Recursos adicionales


Mayor información acerca de los encapsuladores TCP y xinetd se encuentra disponible en Internet
y en la documentación del sistema.

2.5.5.1. Documentación instalada acerca de los encapsuladores TCP


La documentación de su sistema es un buen lugar en donde empezar a buscar opciones adicionales
de configuración para los encapsuladores TCP, xinetd, y control de acceso.

• /usr/share/doc/tcp_wrappers-<version>/ — Este directorio contiene un archivo README


en el que se explica cómo funcionan los encapsuladores TCP, y algunos de los muchos riesgos de
suplantación de identidad que existen para los nombres de los equipos y sus direcciones.

• /usr/share/doc/xinetd-<version>/ — Este directorio contiene un archivo README en el que


se detallan aspectos relacionados con el control de acceso, y un archivo sample.conf, con varias
ideas para modificar los archivos de configuración propios para cada servicio que se encuentran en
el directorio /etc/xinetd.d/.

92
Kerberos

• Páginas man relacionadas con encapsuladores TCP y xinetd — Existen una cantidad de páginas
man para varias aplicaciones y archivos de configuración relacionadas con encapsuladores TCP y
xinetd. Las siguientes con algunas de las más importantes:

Aplicaciones de servidor
• man xinetd — La página man para xinetd.

Archivos de configuración
• man 5 hosts_access — La página man para los archivos de control de acceso de equipos
con encapsuladores TCP.

• man hosts_options — La página man para los campos de opción de los encapsuladores
TCP.

• man xinetd.conf — La página man que ofrece opciones de configuración para xinetd.

2.5.5.2. Sitios web útiles relacionados con encapsuladores TCP


4
• http://www.xinetd.org/ — El sitio principal de xinetd, que contiene archivos de configuración
a modo de ejemplo, lista completa de herramientas, y una sección informativa de preguntas
frecuentes (FAQ, por las iniciales en inglés de Frecuently Asked Questions).

• http://www.docstoc.com/docs/2133633/An-Unofficial-Xinetd-Tutorial — Un tutorial en el que se


explican diferentes formas de optimizar los archivos de configuración de xinetd establecidos por
defecto, de manera de poder alcanzar objetivos de seguridad específicos.

2.5.5.3. Libros relacionados


• Hacking Linux Exposed por Brian Hatch, James Lee, y George Kurtz; Osbourne/McGraw-Hill
— Una herramienta de seguridad excelente con información acerca de encapsuladores TCP y
xinetd.

2.6. Kerberos
La seguridad e integridad del sistema dentro de la red puede ser complejo. Puede necesitarse
el tiempo de varios administradores solo para poder conocer qué servicios son los que están
ejecutándose en una red, y la manera en que están siendo utilizados.

Y más aún, la autenticación de usuarios en los servicios de red pueden ser peligrosa cuando los
métodos usados por el protocolo sean inherentemente inseguros, como lo demuestran los protocolos
tradicionales FTP y Telnet, que transfieren contraseñas no encriptadas sobre la red.

Kerberos es una forma de eliminar la necesidad de protocolos que permitan métodos inseguros de
autenticación, por lo que mejora la seguridad general de la red.

2.6.1. ¿Qué es Kerberos?


Kerberos es un protocolo de autenticación de red creado por el MIT (Massachusetts Institute of
5
Technology), y utiliza una criptografía de llave simétrica para autenticar a los usuarios de los
servicios de red, lo que en pocas palabras significa que las contraseñas nunca son enviadas a través
de la red.

Un sistema donde tanto el cliente como el servidor comparten una clave común que es utilizada para encriptar y desencriptar
comunicaciones a través de una red.

93
Capítulo 2. Asegurando su Red

Consecuentemente, cuando los usuarios se autentican con servicios de red usando Kerberos, los
usuarios no autorizados que intenten averiguar las contraseñas monitoreando el tráfico de red son
efectivamente bloqueados.

2.6.1.1. Ventajas de Kerberos


La mayoría de los servicios convencionales de red utilizan esquemas de autenticación basados
en contraseñas. Estos esquemas piden que los usuarios se identifiquen en un servidor de red
determinado mediante su nombre y contraseña. Desafortunadamente, la transmisión de los datos
para la autenticación de muchos servicios no es encriptada. Para que este tipo de esquemas sean
seguros, la red tiene que permanecer inaccesible a los usuarios extraños a ella, y todos los equipos y
todos los usuarios pertenecientes deben ser considerados confiables.

Aún si este es el caso, una red que se encuentre conectada a Internet no puede ser concebida como
una red segura. Cualquier atacante que obtenga acceso a la red puede utilizar un simple analizador
de paquetes, también conocido como "rastreador" de paquetes, para interceptar nombres de usuario
y contraseñas, comprometiendo las cuentas de usuario y la integridad de toda la infraestructura de
seguridad.

El objetivo primario del diseño de Kerberos es eliminar la transmisión de contraseñas encriptadas en


la red. Si se usa apropiadamente, Kerberos elimina efectivamente la amenaza de los husmeadores
(sniffers) de paquetes en la red.

2.6.1.2. Desventajas de Kerberos


Aunque Kerberos elimina una amenaza de seguridad común y severa, puede ser difícil de
implementar por una variedad de razones:

• Puede ser algo muy tedioso migrar las contraseñas de los usuarios de una base de datos UNIX
estándar, como ser por ejemplo /etc/passwd o /etc/shadow hacia una base de datos para
contraseñas Kerberos, ya que no hay ningún mecanismo automatizado para realizar esta tarea.
Consulte la pregunta 2.23 en el FAQ en línea de Kerberos:
6
http://www.nrl.navy.mil/CCS/people/kenh/kerberos-faq.html

• Kerberos sólo tiene compatibilidad parcial con el sistema PAM de módulos de autenticación
conectables, utilizado por la mayoría de los servidores Fedora. Diríjase a la Sección 2.6.4,
“Kerberos y PAM” para obtener mayor información al respecto.

• Kerberos presupone que cada usuario es confiable, pero que está utilizando un equipo o una
red que no lo es. Su objetivo principal es prevenir la transmisión en la red de contraseñas no
encriptadas. Sin embargo, si alguien más tiene acceso al único equipo que envía los comprobantes
utilizados para la autenticación — denominado el centro de distribución de claves (KDC, por las
siglas en inglés de Key Distribution Center) —, además del usuario correspondiente, entonces todo
el sistema de autenticación Kerberos está corriendo riesgo.

• Para que una aplicación utilice Kerberos, su origen debe ser modificado para que puede realizar
las llamadas apropiadas a las bibliotecas de Kerberos. Las aplicaciones así modificadas son
consideradas como compatibles con Kerberos, o kerberizadas. Para algunas, esto puede ser
bastante problemático debido al tamaño de la aplicación o debido a su diseño. Para otras
aplicaciones incompatibles, los cambios deben ser hechos de manera tal de permitir que el cliente
y el servidor puedan comunicarse. De nuevo, esto puede necesitar una programación extensa.
Las aplicaciones de código propietario que no tienen soporte para Kerberos por defecto, son por lo
general las más problemáticas.

94
Terminología de Kerberos

• Kerberos es una herramienta de tipo "todo o nada". Si Kerberos es utilizado en la red, cualquier
contraseña no encriptada transferida a un servicio no compatible con Kerberos (o no Kerberizado),
se encuentra en riesgo. Por lo tanto, la red no obtiene beneficio alguno al utilizarlo. Para asegurar
una red con Kerberos, se debe utilizar versiones kerberizadas de todas las aplicaciones de tipo
servidor/cliente que transmitan contraseñas no encriptadas, o que no utilicen ninguna de este tipo
de aplicaciones.

2.6.2. Terminología de Kerberos


Kerberos tiene su propia terminología para definir varios aspectos del servicio. Antes de aprender
cómo funciona Kerberos, es importante conocer algunos de los siguientes términos:

Servidor de autenticación (SA)


Un servidor que envía comprobantes (o tickets) para un servicio determinado, comprobantes
que en su momento serán enviados a los usuarios para que puedan acceder a ese servicio. El
AS responde con una petición a las solicitudes de los clientes que, o no tienen o no han enviado
sus credenciales de autenticación. Generalmente, para tener acceso al servidor que emite las
garantías de los comprobantes (TGS, por las siglas en inglés de Ticket-Granting Server), se envía
un comprobante de obtención de garantía de comprobante (TGT, Ticket-Granting Ticket). Por
último, el AS generalmente se ejecuta en el mismo equipo que el centro de distribución de claves
(KDC, Key Distribution Center).

ciphertext
Datos encriptados.

cliente
Una entidad en la red (un usuario, equipo o aplicación) que puede recibir tickets desde Kerberos.

credenciales
Un conjunto de credenciales electrónicas temporales que verifican la identidad de un cliente para
un servicio particular. También llamado ticket.

caché de credenciales o archivo de ticket


Un archivo que contiene las claves para encriptar las comunicaciones entre un usuario y varios
servicios de red. Kerberos 5 soporta un marco de trabajo para el uso de otros tipos de cache,
tales como memoria compartida, pero los archivos son los más completamente soportados.

hash de encriptado
Un hash de una vuelta se usa para autenticar los usuarios. Estos son más seguros que usar
datos no encriptados, pero todavía son relativamente fáciles de desencriptar para craqueadores
experimentados.

GSS-API
La Interfaz del Programa de la Aplicación de Servicios Generales de Seguridad (API, por las
siglas en inglés de Generic Security Service Application Program Interfaz), es un conjunto de
funciones que proveen servicios de seguridad, definida en RFC-2743, publicada por el Equipo
de Tareas de Ingeniería de Internet. La API es utilizada por servicios y clientes para autenticarse
mutuamente sin que sus programas posean conocimientos específicos de los mecanismos
subyacentes. Si un servicio de red (como por ejemplo cyrus-IMAP) utiliza GSS-API, entonces
puede autenticarse mediante Kerberos.

95
Capítulo 2. Asegurando su Red

hash
También conocido como valor hash. Un valor generado por el paso de una cadena a través de
una función hash. Estos valores son típicamente usados para asegurar que los datos transmitidos
no fueron interceptados y modificados.

función hash
Una forma de generar una "huella digital" desde los datos de entrada. Estas funciones reordenan,
trasponen, o alteran los datos de otras maneras para poder producir un valor hash.

llave
Los datos usados cuando se encriptan o desencriptan otros datos. Los datos encriptados no
pueden ser desencriptados sin una clave apropiada o una extrema buena suerte de parte del
craqueador.

centro de distribución de claves (KDC)


Un servicio que emite tickets de Kerberos, y que usualmente corre en el mismo equipo que el
servidor de garantía de ticket (TGS).

tabla de clave (keytab)


Un archivo que incluye una lista no encriptada de principales con sus respectivas claves. Los
servidores obtienen las claves que necesitan desde los archivos keytab en lugar de utilizar
kinit. El archivo keytab establecido por defecto es /etc/krb5.keytab. El servidor que
administra el KDC /usr/kerberos/sbin/kadmind, es el único servicio que utiliza cualquier
otro archivo (utiliza /var/kerberos/krb5kdc/kadm5.keytab).

kinit
El comando kinit permite a un principal que ya ingresó obtener y hacer caché del ticket inicial
de garantía de tickets (TGT). Vaya a la página man de kinit para más información.

principal (o nombre principal)


El principal es el nombre único de un servicio o de un usuario al que le es permitido autenticarse
mediante Kerberos. El principal tiene la forma de root[/instance]@REALM. Para un usuario
típico, el root es el mismo que su ID de inicio de sesión. La instance es opcional. Si el principal
tiene una instancia, será diferenciada del root con una barra invertida ("/"). Una cadena vacía ("")
es considerada una instancia válida (que difiere de la instancia NULL establecida por defecto),
pero utilizarla puede llegar a ser confuso. Todos los principales de un dominio poseen su propia
clave, que para los usuarios es derivada desde una contraseña, o es un conjunto de servicios
aleatorios.

reinado
Una red que use Kerberos, compuesta de uno o más servidores llamados KDCs y un número
potencialmente grande de clientes.

servicio
Un programa accedido por la red.

ticket
Un conjunto temporal de credenciales electrónicas que verifican la identidad de un cliente para un
servicio particular. También llamados credenciales o comprobantes.

servidor de garantías de tickets (TGS)


Un servidor que emite tickets para un servicio deseado que son a su vez dados a los usuarios
para acceder al servicio. El TGS corre normalmente en el mismo equipo que el KDC.

96
Como Funciona Kerberos

ticket de garantía de ticket (TGT)


Un ticket especial que permite al cliente obtener tickets adicionales sin aplicar nuevamente en el
KDC.

contraseña no encriptada
Una contraseña en texto plano, legible al humano.

2.6.3. Como Funciona Kerberos


Kerberos se diferencia de los métodos de autenticación de tipo nombre de usuario/contraseña. En
lugar de autenticar cada usuario en cada servicio de red, Kerberos utiliza cifrados simétricos y un
servicio adicional confiable (un KDC), para autenticar usuarios a un conjunto de servicios de red.
Cuando un usuario se autentica en el KDC, el KDC devuelve a la máquina del usuario en cuestión un
comprobante específico para esa sesión, y cualquier servicio kerberizado busca el comprobante en la
máquina del usuario, en lugar de pedir que el usuario se autentique utilizando una contraseña.

Cuando un usuario kerberizado de una red se loguea en su estación de trabajo, su principal es


enviado al KDC como parte de un pedido para un TGT del servidor de Autenticación. Este pedido
puede ser enviado por el programa de logueo de modo que sea transparente para el usuario, o puede
ser enviado por el programa kinit luego que el usuario se haya logueado.

Entonces el KDC verifica que exista el principal en su base de datos. Si el principal es encontrado, el
KDC crea un TGT, que es cifrado utilizando la llave del usuario, y le es devuelto a ese usuario.

El registro, o programa kinit en el cliente, se encarga de descifrar el TGT utilizando la llave del
usuario, que se analiza desde la contraseña del usuario. La llave del usuario es utilizada sólo en la
máquina cliente y no se transmite en la red.

El TGT se encuentra configurado para que caduque en un determinado período de tiempo


(generalmente de diez a veinticuatro horas), y es almacenado en el caché de credenciales en la
máquina del cliente. Un tiempo de expiración es definido para que, en el supuesto caso que exista un
TGT vulnerado, pueda ser utilizado por un atacante sólo durante un breve período de tiempo. Luego
de haberse emitido un TGT, el usuario no necesita reingresar su contraseña hasta que este no expire,
o hasta que haya finalizado su sesión, y haya vuelto a iniciarla.

Siempre que el usuario necesite acceso a un servicio de red, el software del cliente utiliza el TGT para
pedirle al TGS un nuevo comprobante específicamente para ese servicio. El comprobante del servicio
es entonces utilizado para autenticar de manera transparente al usuario frente al servicio en cuestión.

Advertencia
El sistema Kerberos puede ser vulnerado si un usuario en la red se autentica frente a
un servicio no kerberizado transmitiendo una contraseña con formato de texto simple.
La utilización de servicios no kerberizados es altamente desalentada. Entre tales
servicios se encuentra Telnet y FTP. Es preferible la utilización de otros protocolos
encriptados, como servicios asegurados mediante SSH o SSL, aunque no es lo ideal.

Esta es solamente una presentación general acerca de cómo funciona la autenticación de Kerberos.
Diríjase a la Sección 2.6.10, “Recursos adicionales” para conocer otros enlaces hacia información
más detallada.

97
Capítulo 2. Asegurando su Red

Nota
Kerberos depende de los siguientes servicios de red para funcionar correctamente.
• Sincronización de reloj aproximado entre las máquinas de la red.

Un programa de sincronización de relojes debería ser configurado para la


red, como por ejemplo ntpd. Consulte /usr/share/doc/ntp-<version-
number>/index.html (donde <version-number>, es el número de versión del
paquete ntp instalado en su sistema) para obtener más detalles acerca de cómo
definir servidores de Protocolos de Horarios de Red.

• Servicio de Nombre de Dominio (DNS).

Debe asegurarse que las entradas DNS y los equipos en la red se encuentren
todos configurados adecuadamente. Diríjase a la Guía de Kerberos V5 para los
administradores de sistemas en /usr/share/doc/krb5-server-<version-
number> para obtener más información, (donde <version-number> es el
número de versión del paquete krb5-server instalado en su sistema).

2.6.4. Kerberos y PAM


Los servicios kerberizados actualmente no utilizan módulos de autenticación conectables (PAM, por
las siglas en inglés de Pluggable Authentication Modules) — estos servicios evitan completamente
a PAM. Sin embargo, las aplicaciones que utilicen PAM pueden utilizar a Kerberos para autenticarse
si el módulo pam_krb5 (provisto en el paquete pam_krb5) se encuentra instalado. El paquete
pam_krb5 contiene archivos de ejemplos de configuración que permiten que servicios como login
o gdm puedan autenticar usuarios al mismo tiempo que obtienen credenciales de inicio utilizando
sus contraseñas. Si el acceso a los servicios de red es siempre realizado utilizando servicios
kerberizados, o servicios que utilicen GSS-API como por ejemplo lo es IMAP, entonces puede
considerarse a la red como razonablemente segura.

Importante
Los administradores deben tener la precaución de no permitir que los usuarios
se autentiquen a determinados servicios de red, utilizando contraseñas Kerberos.
Muchos protocolos utilizados por estos servicios no encriptan las contraseñas antes
de enviarlas a través de la red, destruyendo los beneficios del sistema Kerberos. Por
ejemplo, los usuarios no deberían tener permitido autenticarse a servicios Telnet con
la misma contraseña que utilizan para la autenticación en Kerberos.

2.6.5. Configurando un servidor Kerberos 5


Cuando se configure Kerberos, primero instale el KDC. Si es necesario configurar servidores
esclavos, instale el maestro primero.

Para configurar el primer KDC de Kerberos, siga estos pasos:

1. Asegúrese que la sincronización de hora y DNS estén funcionando correctamente en todos los
clientes y máquinas del servidor antes de continuar Kerberos. Preste una atención especial a la
sincronización entre el servidor Kerberos y sus clientes. Si la diferencia horaria entre el servidor y
el cliente es mayor a cinco minutos (esto es configurable en Kerberos 5), los clientes de Kerberos

98
Configurando un servidor Kerberos 5

no podrán autenticarse en el servidor. Esta sincronización es necesaria para prevenir que un


atacante utilice un comprobante antiguo de Kerberos enmascarado como el de un usuario válido.

Es recomendable configurar una red cliente/servidor compatible con el Protocolo de Horario de


Red (NTP, por las siglas en inglés de Network Time Protocol), aún cuando no se esté utilizando
Kerberos. Fedora incluye el paquete ntp para este propósito. Consulte /usr/share/doc/
ntp-<version-number>/index.html (donde <version-number> es el número de versión
del paquete ntp instalado en su sistema) para conocer detalles acerca de cómo configurar
servidores con Protocolos de Horario de Red, o http://www.ntp.org, para obtener más información
acerca de NTP.

2. Instale los paquetes krb5-libs, krb5-server y krb5-workstation en la máquina dedicada


que correrá KDC. Esta máquina necesita ser muy segura — si es posible, no debe correr ningún
otro servicio más que KDC.

3. Edite los archivos de configuración /etc/krb5.conf y /var/kerberos/krb5kdc/kdc.conf


para reflejar el nombre del reinado y los mapeos dominio-a-reinado. Un reinado simple puede
ser construido reemplazando instancias de EJEMPLO.COM y ejemplo.com con el nombre
correcto del dominio — siendo seguro mantener la forma correcta de los nombres en mayúscula
y en mínuscula — y cambiando el KDC de kerberos.elemplo.com al nombre del servidor
kerberos. Por convención, todos los nombres de reinados se escriben en mayúsculas, y todos
los nombres de equipos y de dominios DNS en minúsculas. Para obtener información detallada
acerca de los formatos de estos archivos de configuración, consulte sus respectivas páginas
man.

4. Genere la base de datos usando el utilitario kdb5_util desde una terminal:

/usr/kerberos/sbin/kdb5_util create -s

El comando create genera la base de datos que almacena las clves para el reinado de
Kerberos. El interruptor -s obliga a la creación de un archivo stash en el cual la clave del servidor
principal es almacenada. Si no existe un archivo stash desde donde poder leer la clave, el
servidor kerberos (krb5kdc) le pedirá al usuario que ingrese la contraseña principal del servidor
(que puede ser utilizada para generar nuevamente la clave) cada vez que se inicie.

5. Edite el archivo /var/kerberos/krb5kdc/kadm5.acl. Este archivo es usado por kadmind


para determinar qué principales tienen acceso administrativo a la base de datos de Kerberos y
sus niveles de acceso. La mayoría de las organizaciones pueden obtenerlo por una única línea:

*/admin@EXAMPLE.COM *

La mayoría de los usuarios se representan en la base de datos por un principal único (con
una instancia NULL, o vacía, tal como juan@EJEMPLO.COM). En esta configuración,
los usuarios con un segundo principal con una instancia de admin (por ejemplo, juan/
admin@EJEMPLO.COM) pueden ejercer un poder completo sobre el reinado de la base de datos
de Kerberos.

Después de que se inicie kadmind en el servidor, cualquier usuario puede acceder sus servicios
ejecutando kadmin en cualquier cliente o servidores en el reino. Sin embargo, sólo los usuarios
listados en el archivo kadm5.acl pueden modificar la base de datos de ninguna forma, excepto
para cambiar sus propias contraseñas.

99
Capítulo 2. Asegurando su Red

Nota
La herramienta kadmin permite la comunicación con el servidor kadmind
a través de la red, y utiliza kerberos para manipular la autenticación.
Consecuentemente, el primer principal debe existir previamente antes de
intentar conectarse con el servidor a través de la red para administrarlo.
Genere el primer principal con el comando kadmin.local, que ha sido
específicamente diseñado para ser utilizado en el mismo equipo en el que
funciona el KDC, y no utiliza Kerberos para su autenticación.

Ingrese el comando siguiente kadmin.local en la terminal KDC para crear el primer principal:

/usr/kerberos/sbin/kadmin.local -q "addprinc username/admin"

6. Inicie Kerberos usando los siguientes comandos:

/sbin/service krb5kdc start


/sbin/service kadmin start
/sbin/service krb524 start

7. Agregue principales para los usuarios mediante el comando addprinc dentro de kadmin.
kadmin y kadmin.local son interfaces de líneas de comando al KDC. Como este, existen
disponibles otros comandos — como por ejemplo addprinc — luego de iniciar el programa
kadmin. Para obtener mas información, consulte la página man de kadmin.

8. Verifique que KDC está emitiendo tiques. Primero, corra kinit para obtener un tique y guardarlo
en un archivo cache de credencial. Luego, use klist para ver la lista de credenciales en el
caché y use kdestroy para destruir el caché y las credenciales que contiene.

Nota
Por defecto, kinit intenta autenticarse utilizando el mismo nombre de usuario
del de inicio de sesión (no el del servidor Kerberos). Si ese nombre de usuario
no se corresponde con un principal en la base de datos de Kerberos, kinit
envía un mensaje de error. Si eso sucede, indiquele a kinit el nombre
del principal correcto, como un argumento en la línea de comando (kinit
<principal>).

Una vez que estos pasos sean completados, el servidor Kerberos ya debería estar listo y
ejecutándose.

2.6.6. Configuración de un Cliente Kerberos 5


Configurar un cliente de Kerberos 5 es menos complicado que configurar un servidor. Como mínimo,
instale los paquetes del cliente y otórguele a cada cliente un archivo de configuración krb5.conf
válido. Mientras que ssh y slogin son los métodos preferidos para loguearse remotamente en
sistemas cliente, las versiones Kerberizadas de rsh y rlogin siguen estando disponibles, aunque
para habilitarlas es necesario realizar algunos cambios adicionales en la configuración.

100
Configuración de un Cliente Kerberos 5

1. Asegúrese que la sincronización de tiempo entre el cliente Kerberos y KDC exista y sea la
adecuada. Diríjase a Sección 2.6.5, “Configurando un servidor Kerberos 5” para obtener mayors
información. Además, verifique que el DNS está funcionando apropiadamente en el cliente
Kerberos antes de configurar con los programas cliente de Kerberos.

2. Instale los paquetes krb5-libs y krb5-workstation en todas las máquinas clientes. Provea
un archivo /etc/krb5.conf válido para cada cliente (normalmente este puede ser el mismo
archivo krb5.conf usado por el KDC).

3. Antes que una estación de trabajo del reinado pueda utilizar a Kerberos para autenticar los
usuarios que se conectan mediante ssh, o mediante los rsh o rlogin Kerberizados, debe tener
su propio equipo principal en la base de datos de Kerberos. Los programas de servidor sshd,
kshd, y klogind, necesitan todos acceder a las llaves para los servicios del equipo principal.
Además, para poder utilizar los servicios kerberizados rsh y rlogin, esa estación de trabajo
debe tener el paquete xinetd instalado.

Al utilizar kadmin se agrega un principal de equipo para la estación de trabajo en el KDC. En


este caso, la instancia es el nombre del equipo de la estación de trabajo. Utilice la opción -
randkey para el comando addprinc de kadmin, para crear el principal y asignarle una llave en
forma azarosa:

addprinc -randkey host/blah.example.com

Ahora que se ha creado el principal, las claves se pueden extraer para la estación trabajo
ejecutando kadmin en la misma estación de trabajo y usando el comando ktadd dentro de
kadmin:

ktadd -k /etc/krb5.keytab host/blah.example.com

4. Para usar otros servicios de red kerberizados, primero deben iniciarse. A continuación
mostramos una lista de los servicios kerberizados comunes y las instrucciones acerca de cómo
habilitarlos:

• ssh — OpenSSH utiliza GSS-API para autenticar a los usuarios en los servidores, si la
configuración del cliente y del servidor tienen ambas GSSAPIAuthentication habilitado.
Si el cliente tiene también GSSAPIDelegateCredentials habilitado, las credenciales del
usuario se hacen disponibles en el sistema remoto.

• rsh y rlogin — Para usar las versiones kerberizadas de rsh y rlogin, habilite klogin,
eklogin y kshell.

• Telnet — Para usar Telnet kerberizado, debe habilitar krb5-telnet.

• FTP — Para proveer acceso FTP, crear y extraer una clave para el principal con una raíz de
ftp. Asegúrese de poner la instancia al nombre de equipo completo del servidor FTP, luego
habilite gssftp.

• IMAP — Para utilizar un servidor kerberizado IMAP, el paquete cyrus-imap utilizará Kerberos
5, si también se encuentra instalado el paquete cyrus-sasl-gssapi. El paquete cyrus-
sasl-gssapi contiene el complemento Cyrus SASL que tiene soporte para autenticación
GSS-API. Cyrus IMAP debería funcionar correctamente con Kerberos siempre y cuando el
usuario cyrus sea capaz de encontrar la clave correspondiente en /etc/krb5.keytab, y
que la raíz para el principal esté definida para imap (creada con kadmin).

101
Capítulo 2. Asegurando su Red

Una alternativa a cyrus-imap se puede encontrar en el paquete dovecot, que también se


incluye en Fedora. Este paquete contiene un servidor IMAP pero no da soporte a GSS-API y
Kerberos por el momento.

• CVS — Para usar un servidor CVS kerberizado, gserver usa un principal con una raíz de cvs
y por lo demás es idéntico al servidor CVS pserver.

2.6.7. Mapeo dominio-a-reinado


Cuando un cliente intenta acceder a un servicio que corre en un servidor particular, sabe el nombre
del (equipo) del servicio y el nombre del servidor (foo.ejemplo.com), pero como se pueden desplegar
más de un reinado en su red, debe averiguar el nombre del reinado en el que reside el servicio.

Por defecto, el nombre del territorio se toma como el nombre de dominio DNS del servidor, en
mayúsculas.

foo.example.org → EXAMPLE.ORG
foo.example.com → EXAMPLE.COM
foo.hq.example.com → HQ.EXAMPLE.COM

En algunas configuraciones esto será suficiente, pero en otras, el nombre del reinado derivado será
el nombre de un reinado no existente. En estos casos, el mapeo desde el nombre del dominio DNS
del servidor, hacia su reinado, debe estar especificado en la sección domain_realm del sistema
krb5.conf del cliente. Por ejemplo:

[domain_realm]
.example.com = EXAMPLE.COM
example.com = EXAMPLE.COM

En la configuración anterior se especifican dos mapeos. El primero indica que cualquier sistema
en el dominio de DNS "ejemplo.com" pertenecen al reinado EJEMPLO.COM. El segundo, que el
nombre exacto "ejemplo.com" está también en el reinado. (La distinción entre el dominio y un equipo
específico se marca por la presencia o ausencia del "." inicial.) El mapeo también se puede almacenar
directamente en el DNS.

2.6.8. Configurando KDCs secundarios


Por diversas razones, usted puede elegir ejecutar varios KDCs para un reinado dado. En este
escenario, un KDC (el KDC maestro) conserva una copia modificable de la base de datos del reinado,
y ejecuta kadmind (que también es el admin server de su reinado), y uno o más KDCs (esclavos)
conservan copias de solo lectura de la base de datos, y ejecutan kpropd.

El procedimiento de propagación maestro-esclavo requiere que el KDC maestro vuelque su base de


datos a un archivo de volcado temporal y luego transmita ese archivo a cada uno de sus esclavos,
que luego sobreescriben sus copias sólo lectura de la base de datos recibidas antes, con el contenido
del archivo de volcado.

Para configurar un KDC esclavo, primero asegúrese que los archivos krb5.conf y kdc.conf del
KDC maestro fueron copiados al KDC esclavo.

Inicie kadmin.local desde una consola raíz en el KDC maestro, y utilice su comando
add_principal para crear una nueva entrada para el servicio host del KDC maestro, y luego utilice

102
Configurando KDCs secundarios

su comando ktadd para definir una llave aleatoria para el servicio, y al mismo tiempo almacenarla
en el archivo keytab establecido por defecto. Esta llave será utilizada por el comando kprop para
autenticarse a los servidores esclavos. Usted necesitará hacer esto sólo una vez, sin importar la
cantidad de servidores esclavos que tenga instalados.

# kadmin.local -r EXAMPLE.COM

Authenticating as principal root/admin@EXAMPLE.COM with password.

kadmin: add_principal -randkey host/masterkdc.example.com

Principal "host/host/masterkdc.example.com@EXAMPLE.COM" created.

kadmin: ktadd host/masterkdc.example.com

Entry for principal host/masterkdc.example.com with kvno 3, encryption type Triple DES cbc
mode with HMAC/sha1 added to keytab WRFILE:/etc/krb5.keytab.

Entry for principal host/masterkdc.example.com with kvno 3, encryption type ArcFour with HMAC/
md5 added to keytab WRFILE:/etc/krb5.keytab.

Entry for principal host/masterkdc.example.com with kvno 3, encryption type DES with HMAC/sha1
added to keytab WRFILE:/etc/krb5.keytab.

Entry for principal host/masterkdc.example.com with kvno 3, encryption type DES cbc mode with
RSA-MD5 added to keytab WRFILE:/etc/krb5.keytab.

kadmin: quit

Inicie kadmin como usuario root desde una terminal en el KDC esclavo, y utilice el comando
add_principal para crear una nueva entrada para su servicio host. Luego utilice el comando
ktadd, de kadmin, para establecer (y al mismo tiempo almacenar) en el archivo keytab del esclavo,
una llave aleatoria para el servicio. Esta llave es utilizada por el servicio kpropd cuando se necesite
autenticar a los clientes.

# kadmin -p jimbo/admin@EXAMPLE.COM -r EXAMPLE.COM

Authenticating as principal jimbo/admin@EXAMPLE.COM with password.

Password for jimbo/admin@EXAMPLE.COM:

kadmin: add_principal -randkey host/slavekdc.example.com

Principal "host/slavekdc.example.com@EXAMPLE.COM" created.

kadmin: ktadd host/slavekdc.example.com@EXAMPLE.COM

Entry for principal host/slavekdc.example.com with kvno 3, encryption type Triple DES cbc mode
with HMAC/sha1 added to keytab WRFILE:/etc/krb5.keytab.

Entry for principal host/slavekdc.example.com with kvno 3, encryption type ArcFour with HMAC/
md5 added to keytab WRFILE:/etc/krb5.keytab.

Entry for principal host/slavekdc.example.com with kvno 3, encryption type DES with HMAC/sha1
added to keytab WRFILE:/etc/krb5.keytab.

Entry for principal host/slavekdc.example.com with kvno 3, encryption type DES cbc mode with
RSA-MD5 added to keytab WRFILE:/etc/krb5.keytab.

kadmin: quit

103
Capítulo 2. Asegurando su Red

Con la clave de este servicio, el KDC esclavo puede autenticar a cualquier cliente que intente
conectarse a él. Obviamente, no a todos ellos debería permitírsele proveer el servicio esclavo kprop
con una nueva base de datos del reinado. Para restringir el acceso, el servicio kprop en el KDC
esclavo solo aceptará actualizaciones de clientes cuyos nombre de principal estén listados en /var/
kerberos/krb5kdc/kpropd.acl. Agregue el nombre del equipo KDC maestro a esa lista.

# echo host/masterkdc.example.com@EXAMPLE.COM > /var/kerberos/krb5kdc/kpropd.acl

Una vez que el KDC esclavo haya obtenido una copia de la base de datos, necesitará también la
llave maestra que ha sido utilizada para cifrarlo. Si la llave maestra de su base de datos KDC ha sido
almacenada en un archivo stash del KDC maestro (generalmente denominada /var/kerberos/
krb5kdc/.k5.REALM), cópiela en el KDC esclavo utilizando cualquier método disponible que
sea seguro, o cree una base de datos y un archivo escondite falsos en el KDC esclavo ejecutando
kdb5_util create -s (la base de datos falsa será sobreescrita con la primera propagación de
base de datos que sea exitosa), e indicando la misma contraseña.

Asegúrese que el cortafuego del KDC esclavo permita al KDC maestro contactarlo utilizando el puerto
754 con TCP (krb5_prop), e inicie el servicio kprop. Luego, vuelva a verificar si el servicio kadmin se
encuentra deshabilitado.

Ahora realice una prueba manual de propagación de la base de datos volcando la base de datos del
reinado, en el KDC maestro, al archivo de datos predeterminado desde donde el comando kprop
leerá (/var/kerberos/krb5kdc/slave_datatrans) y luego use el comando kprop para
transmitir su contenido al KDC esclavo.

# /usr/kerberos/sbin/kdb5_util dump /var/kerberos/krb5kdc/slave_datatrans# kprop


slavekdc.example.com

Usando kinit, verifique que un sistema cliente cuyo krb5.conf liste sólo el KDC esclavo en su
lista de KDCs para su reinado, pueda ahora obtener correctamente las credenciales iniciales del KDC
esclavo.

Hecho esto, simplemente cree un script que vuelque la base de datos del reinado y ejecute el
comando kprop para transmitir la base de datos a cada KDC esclavo por vez, y configure el servicio
cron para correr el script periódicamente.

2.6.9. Configurando la autenticación cruzada de reinados


La autenticación cruzada de reinado es el término usado para describir situaciones en que los clientes
(normalmente usuarios) de un reinado utilizan Kerberos para autenticarse con servicios (típicamente
procesos servidor corriendo en un sistema servidor particular) que pertenecen a otro reinado distinto
al propio.

Para el caso más simple, para que un cliente de un reinado con nombre A.EJEMPLO.COM acceda
a un servicio en el reinado B.EJEMPLO.COM, ambos reinados deben compartir una clave para el
principal con nombre krbtgt/B.EJEMPLO.COM@A.EJEMPLO.COM, y ambas claves deben tener el
mismo número de versión de clave asociadas a ellas.

Para hacer esto, debe seleccionar una contraseña o frase de acceso muy fuerte y crear una entrada
para el principal de ambos reinados usando kadmin.

# kadmin -r A.EXAMPLE.COM kadmin: add_principal krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM Enter


password for principal "krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM": Re-enter password for principal
"krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM": Principal "krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM" created.
quit # kadmin -r B.EXAMPLE.COM kadmin: add_principal krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM Enter

104
Configurando la autenticación cruzada de reinados

password for principal "krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM": Re-enter password for principal


"krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM": Principal "krbtgt/B.EXAMPLE.COM@A.EXAMPLE.COM" created.
quit

Use el comando get_principal para verificar que ambas entradas tienen un número de versión de
claves (valores kvno) y tipos de encriptados coincidentes.

El volcado de la base de datos no lo hace


Los administradores conscientes de los procesos de seguridad, podrían intentar
utilizar la opción -randkey del comando add_principal, para asignar una clave
aleatoria en lugar de una contraseña, descargar la nueva entrada desde una base
de datos del primer reinado, e importarla al segundo. Esto no va a funcionar a menos
que las llaves maestras de la base de datos del reinado sean idénticas, ya que las
llaves contenidas en una base de datos descargada, son cifradas utilizando la llave
maestra.

Los clientes en el reinado A.EJEMPLO.COM son capaces ahora de autenticarse en los servicios del
reinado B.EJEMPLO.COM. Dicho de otra manera, el reinado B.EJEMPLO.COM ahora confía en el
reinado A.EJEMPLO.COM, o, más sencillo aún, ahora B.EJEMPLO.COM confía en A.EJEMPLO.COM.

Esto nos lleva a un punto importante: la confianza generada entre los reinados es, por defecto,
unidireccional. El KDC para el reinado B.EJEMPLO.COM podría confiar en clientes del reinado
A.EJEMPLO.COM para autenticarse en sus servicios, pero este hecho no significa que el reinado
A.EJEMPLO.COM confíe en los clientes del reinado B.EJEMPLO.COM cuando estos intenten
autenticarse en sus servicios. Para establecer una confianza bidireccional entre dos reinados, ambos
van a necesitar compartir claves para el servicio krbtgt/A.EJEMPLO.COM@B.EJEMPLO.COM (tome
nota de la forma invertida de acuerdo a los dos reinados comparados en el ejemplo anterior).

Si las relaciones de confianza directa fueran la única manera de hacer que dos reinados confíen
entre sí, sería bastante complicado configurar redes con gran cantidad de ellos. Afortunadamente, la
confianza generada entre reinados es transitiva. Si los clientes del reinado A.EJEMPLO.COM pueden
autenticarse en servicios del reinado B.EJEMPLO.COM, y los clientes del reinado B.EJEMPLO.COM
pueden autenticarse en servicios del reinado C.EJEMPLO.COM, entonces los clientes de
A.EJEMPLO.COM pueden también autenticarse en los servicios del reinado C.EJEMPLO.COM, aún
cuando C.EJEMPLO.COM no confíe directamente en los clientes del reinado A.EJEMPLO.COM. Esto
significa que lo ideal para poder reducir la cantidad de esfuerzo al configurar una red con múltiples
reinados, que necesiten confiar unos en otros, será realizar las elecciones correctas a la hora de
definir las relaciones de confianza entre ellos.

Ahora se enfrenta a problemas más convencionales: el sistema cliente debe ser configurado para
que pueda deducir apropiadamente el reinado al que un servicio particular pertenece, y debe poder
determinar cómo obtener las credenciales en ese reinado.

Vayamos en orden: el nombre del principal para un servicio provisto desde un sistema servidor
específico en un reinado dado normalmente es parecido a:

service/server.example.com@EXAMPLE.COM

En el ejemplo siguiente, el servicio es generalmente, o bien el nombre del protocolo en uso (otros
valores comunes pueden ser ldap, imap, cvs, y HTTP), o bien equipo. server.ejemplo.com es el
nombre del dominio del sistema completamente calificado que ejecuta el servicio, y EJEMPLO.COM es
el nombre del reinado.

105
Capítulo 2. Asegurando su Red

Para deducir el dominio al que el servicio pertenece, los clientes por lo general consultan el DNS o
la sección domain_realm del archivo /etc/krb5.conf para mapear ya sea el nombre del equipo
(server.ejemplo.com) o el nombre del dominio DNS (.ejemplo.com) hacia el nombre del reinado
(EJEMPLO.COM).

Habiendo determinado a qué reinado pertenece el servicio, un cliente tiene que determinar luego el
conjunto de reinados que debe contactar y en qué orden debe hacerlo, para obtener las credenciales
a usar en la autenticación con el servicio.

Esto se puede hacer de una o dos formas.

El método establecido por defecto, que no requiere una configuración explícita, es dar a los
reinados nombres dentro de una jerarquía compartida. Como ejemplo, suponer los reinados
llamados A.EJEMPLO.COM, B.EJEMPLO.COM, and EJEMPLO.COM. Cuando un cliente del reinado
A.EJEMPLO.COM intente autenticarse en un servicio del reinado B.EJEMPLO.COM, por defecto, lo
primero que hará será intentar obtener credenciales para el reinado EJEMPLO.COM, y luego utilizar
esas credenciales para obtener unas nuevas para poder utilizarlas en el reinado B.EJEMPLO.COM.

En este escenario el cliente trata el nombre del reinado como uno podría tratar un nombre DNS.
Reiteradamente va quitando los componentes de su propio nombre de reinado para generar los
nombres de los reinados que se encuentre jerárquicamente "por encima del suyo", hasta que llegue
a un punto que incluso sea jerárquicamente "superior" al reinado del servicio. En ese punto empieza
a analizar los componentes del nombre del servicio del reinado, hasta que obtiene el servicio del
reinado. Cada reinado que se encuentre involucrado en el proceso, es considerado como otro "salto".

Por ejemplo, el uso de credenciales en A.EJEMPLO.COM, autenticando a un servicio en


B.EJEMPLO.COMA.EJEMPLO.COM → EJEMPLO.COM → B.EJEMPLO.COM
• A.EJEMPLO.COM y EJEMPLO.COM comparten una clave para krbtgt/
EJEMPLO.COM@A.EJEMPLO.COM

• EJEMPLO.COM y B.EJEMPLO.COM comparten una clave krbtgt/


B.EJEMPLO.COM@EJEMPLO.COM

Otro ejemplo, usando credenciales en SITIO1.VENTAS.EJEMPLO.COM, para autenticar a un servicio


en CUALQUIERLUGAR.EJEMPLO.COMSITIO1.VENTAS.EJEMPLO.COM → VENTAS.EJEMPLO.COM
→ EJEMPLO.COM → CUALQUIERLUGAR.EJEMPLO.COM
• SITIO1.VENTAS.EJEMPLO.COM y VENTAS.EJEMPLO.COM comparten una clave para krbtgt/
VENTAS.EJEMPLO.COM@SITIO1.VENTAS.EJEMPLO.COM

• VENTAS.EJEMPLO.COM y EJEMPLO.COM comparten una clave para krbtgt/


EJEMPLO.COM@VENTAS.EJEMPLO.COM

• EJEMPLO.COM y CUALQUIERLUGAR.EJEMPO.COM comparten una clave para krbtgt/


CUALQUIERLUGAR.EJEMPLO.COM@EJEMPLO.COM

Otro ejemplo, esta vez utilizando nombres de reinados que no compartan sufijos comunes
(DEVEL.EJEMPLO.COM y PROD.EJEMPLO.ORG DEVEL.EJEMPLO.COM → EJEMPLO.COM → COM →
ORG → EJEMPLO.ORG → PROD.EJEMPLO.ORG
• DEVEL.EJEMPLO.COM y EJEMPLO.COM comparten una clave para krbtgt/
EJEMPLO.COM@DEVEL.EJEMPLO.COM

• EJEMPLO.COM y COM comparten una clave para krbtgt/COM@EJEMPLO.COM

• COM y ORG comparten una clave para krbtgt/ORG@COM

106
Configurando la autenticación cruzada de reinados

• ORG y EJEMPLO.ORG comparten una clave para krbtgt/EJEMPLO.ORG@ORG

• EJEMPLO.ORG y PROD.EJEMPLO.ORG comparten una clave para krbtgt/


PROD.EJEMPLO.ORG@EJEMPLO.ORG

El método más complicado, pero que al mismo tiempo es el más flexible, reside en configurar la
sección capaths del archivo /etc/krb5.conf, de modo que los clientes que tengan credenciales
para un reinado específico, deberán buscar qué reinado es el que le sigue en la cadena y que,
eventualmente, será quien permita su autenticación con los servidores.

El formato de la sección capaths es relativamente sencillo: cada entrada en la sección tiene el


mismo nombre que el reinado en el que pudiera existir el cliente. Dentro de cada subsección, el
conjunto de los reinados intermedios desde donde el cliente tiene que obtener las credenciales, se
muestran como los valores de la llave que se corresponde con el reinado en el que puede residir el
servicio. Si no existen reinados intermedios, será utilizado el valor ".".

Aquí hay un ejemplo:

[capaths]
A.EXAMPLE.COM = {
B.EXAMPLE.COM = .
C.EXAMPLE.COM = B.EXAMPLE.COM
D.EXAMPLE.COM = B.EXAMPLE.COM
D.EXAMPLE.COM = C.EXAMPLE.COM
}

En este ejemplo, los clientes en el reinado A.EJEMPLO.COM pueden obtener credenciales de


reinados cruzados para B.EJEMPLO.COM directamente del KDC de A.EJEMPLO.COM.

Si esos clientes desean contactar un servicio en el reinado C.EJEMPLO.COM, necesitarán


obtener primero credenciales necesarias del reinado B.EJEMPLO.COM (esto requiere que
krbtgt/B.EJEMPLO.COM@A.EJEMPLO.COM exista), y entonces utilizar esas credenciales
para obtener otras para ser utilizadas en el reinado C.EJEMPLO.COM (utilizando krbtgt/
C.EJEMPLO.COM@B.EJEMPLO.COM).

Si esos clientes desean contactar un servicio en el reinado D.EJEMPLO.COM, necesitarán obtener


primero las credenciales necesarias del reinado B.EJEMPLO.COM, y luego las credenciales del
reinado C.EJEMPLO.COM, antes de obtener, finalmente, las credenciales necesarias para utilizar con
el reinado D.EJEMPLO.COM.

Nota
Sin una entrada que indique lo contrario, Kerberos asume que las relaciones de
confianza de reinados cruzados forman una jerarquía.

Los clientes en el reinado A.EJEMPLO.COM pueden obtener credenciales cruzadas


del reinado B.EJEMPLO.COM directamente. Sin el "." indicando esto, el cliente
intentaría sino usar un camino jerárquico, en este caso:

A.EXAMPLE.COM → EXAMPLE.COM → B.EXAMPLE.COM

107
Capítulo 2. Asegurando su Red

2.6.10. Recursos adicionales


Para más información sobre Kerberos, consulte las fuentes que indicamos a continuación.

2.6.10.1. Documentación Instalada de Kerberos


• La Guía de instalación de Kerberos V5 y la Guía de Kerberos V5 para administrador del sistema en
formatos PostScript y HTML. Pueden ser encontradas en el directorio /usr/share/doc/krb5-
server-<version-number>/ (donde <version-number> es el número de versión del paquete
krb5-server instalado en su sistema).

• La Guía del usuario UNIX de Kerberos V5 en formatos PostScript y HTML. Pueden ser encontradas
en el directorio /usr/share/doc/krb5-workstation-<version-number>/ (donde
<version-number> es el número de versión del paquete krb5-workstation instalado en su
sistema).

• Páginas man de Kerberos — Hay un número de páginas man para las varias aplicaciones y
archivos de configuración involucrados con una implementación de Kerberos. La siguiente es una
lista de algunas de las páginas man más importantes.

Aplicaciones cliente
• man kerberos — Una introducción al sistema Kerberos que describe cómo funcionan las
credenciales y provee recomendaciones para obtener y destruir tickets de Kerberos. Al final
de la página man hay referencias hacia otras páginas man relacionadas con el tema.

• man kinit — Describe cómo usar este comando para obtener y hacer caché de un ticket
de garantía de tickets.

• man kdestroy — Describe cómo usar este comando para destruir las credenciales de
Kerberos.

• man klist — Describe cómo usar este comando para listar las credenciales cacheadas de
Kerberos.

Aplicaciones administrativas
• man kadmin — Describe cómo usar este comando para administrar con la base de datos de
Kerberos V5.

• man kdb5_util — Describe cómo usar este comando para crear y realizar funciones
administrativas de bajo nivel en la base de datos de Kerberos V5.

Aplicaciones de servidor
• man krb5kdc — Describe las opciones de la línea de comando del KDC de Kerberos V5.

• man kadmind — Describe las opciones de la línea de comando para el servidor de


administración de Kerberos V5.

Archivos de configuración
• man krb5.conf — Describe el formato y las opciones disponibles dentro del archivo de
configuración para la biblioteca de Kerberos V5.

• man kdc.conf — Describe el formato y las opciones disponibles dentro del archivo de
configuración del AS y el KDC de Kerberos V5.

108
Redes privadas virtuales (VPNs, por las iniciales en inglés de Virtual Private Networks)

2.6.10.2. Páginas web útiles sobre Kerberos


• http://web.mit.edu/kerberos/www/ — Kerberos: El Protocolo de Autenticación de Red del MIT.

• http://www.nrl.navy.mil/CCS/people/kenh/kerberos-faq.html — Las Preguntas Frecuentes de


Kerberos (FAQ).

• ftp://athena-dist.mit.edu/pub/kerberos/doc/usenix.PS — La versión PostScript de Kerberos: Un


Servicio de Untenticación para Sistemas de Red Abierta por Jennifer G. Steiner, Clifford Neuman,
y Jeffrey I. Schiller. Este documento es el impreso original que describe el funcionamiento de
Kerberos.

• http://web.mit.edu/kerberos/www/dialogue.html — Construyendo un sistema de autenticación:


diálogo en cuatro escenas (en inglés) originalmente realizado por Bill Bryant en 1988, modificado
por Theodore Ts'o en 1997. Este documento es una conversación entre dos desarrolladores que
están pensando en la creación de un sistema de autenticación, con un estilo similar al de Kerberos.
El estilo de diálogo con el que se muestra la discusión lo convierte en un excelente punto de partida
para aquellos que no conozcan absolutamente nada acerca de Kerberos.

• http://www.ornl.gov/~jar/HowToKerb.html — Cómo Kerberizar su sitio es una buena referencia para


kerberizar su red.

• http://www.networkcomputing.com/netdesign/kerb1.html — Manual de Diseño de Red con Kerberos


es un repaso extenso sobre el sistema Kerberos.

2.7. Redes privadas virtuales (VPNs, por las iniciales en


inglés de Virtual Private Networks)
Las organizaciones con diferentes oficinas satélites, a menudo se conectan entre ellas mediante
líneas constituidas específicamente para proteger los datos vitales y asegurar la eficacia en su
transferencia. Por ejemplo, muchos comercios utilizan líneas de frame relay o Modo de Transferencia
no Sincronizada (ATM, por las iniciales en inglés de Asynchronous Transfer Mode) como una
herramienta de comunicaciones de tipo punto-a-punto para enlazar una oficina con el resto. Este
puede llegar a ser un recurso algo costoso, especialmente para pequeñas o medianas empresas,
que quieren expandirse sin tener que pagar los altos costos que involucra la utilización de circuitos
digitales a medida, generalmente utilizados por empresas de mayor poder adquisitivo.

Para poder cubrir estas necesidades, se han desarrollado las Redes Privadas Virtuales (VPNs).
Utilizando los mismos principios de funcionamiento que los circuitos a medida, las VPNs permiten
comunicaciones digitales seguras entre dos elementos (o redes), creando una Red de Area Global
(WAN, por las iniciales en inglés de Wide Area Network) a partir de Redes de Area Local (LANs, Local
Area Networks) existentes. La diferencia entre frame relay o ATM reside en el medio de transporte
que se utiliza. Las VPNs transmiten sobre IP mediante la utilización de datagramas como su medio de
transporte, convirtiéndolas en un conducto seguro a través de Internet hacia un destino específico. La
mayoría de las implementaciones VPN de software libre incorporan estándares abiertos de métodos
de encriptación para, posteriormente, enmascarar los datos en tránsito.

Algunas organizaciones utilizan herramientas VPN de hardware para incrementar la seguridad,


mientras que otras utilizan software, o implementaciones derivadas en protocolos. Muchos
proveedores ofrecen herramientas VPN de hardware, como Cisco, Nortel, IBM y Checkpoint. Existe
una herramienta gratuita de software VPN para Linux denominada FreeS/Wan que utiliza una
implementación estandarizada del Protocolo de Seguridad de Internet (IPsec, por las iniciales en
inglés de Internet Protocol Security). Estas herramientas VPN, ya sean derivadas de hardware o

109
Capítulo 2. Asegurando su Red

de software, trabajan como enrutadores especializados que existen entre la conexión IP desde una
oficina hacia otra.

2.7.1. ¿Cómo funciona una VPN?


Cuando un paquete se transmite desde un cliente, se envía a través del enrutador o puerta de enlace
VPN, que le añade un Encabezado de autenticación (AH, por las iniciales en inglés de Authentication
Header) para su enrutamiento y autenticación. Los datos son entonces encriptados y, por último,
empaquetados con una Carga Util de Seguridad por Encapsulado (ESP, por las inicales en inglés de
Encapsulating Security Payload). Esto, más adelante, constituye las instrucciones de desencriptado y
entrega.

El enrutador VPN que recibe los paquetes, quita la información de los cabezales, decripta los datos
y los envía a su destinatario (ya sea una estación de trabajo u otro nodo en la red). Utilizando una
conexión de tipo red-a-red, el nodo receptor en la red local recibe los paquetes ya decriptados y listos
para su procesamiento. El proceso de encriptado/decriptado en una conexión VPN de tipo red-a-red
es transparente al nodo local.

Con tal alto nivel de seguridad, un atacante no solo debe tener que poder interceptar el paquete,
sino que además tiene que decriptarlo. Los intrusos que utilizan ataques de tipo intermediario entre
un servidor y el cliente, deben tener también acceso a, como mínimo, una de las claves privadas
para autenticar sesiones. debido a que se utilizan diferentes capas en el proceso de encriptación y
decriptación, las VPNs son medios seguros y efectivos de conectar múltiples nodos remotos y poder
actuar como una intranet unificada.

2.7.2. VPNs y Fedora


Fedora ofrece varias opciones en términos de implementar herramientas de software para conectarse
de manera segura en una WAN. La utilización de Protocolos de Seguridad de Internet (IPsec), es la
herramienta VPN para Fedora, y cubre adecuadamente las necesidades de las organizaciones que
posean oficinas sucursales, o usuarios remotos

2.7.3. IPsec
Fedora ofrece soporte de IPsec para conectar equipos remotos y redes entre sí, utilizando un túnel
seguro en un medio de transporte de red común, como lo es Internet. IPsec puede ser implementado
utilizando una configuración de tipo equipo-a-equipo (una estación de trabajo con otra), o de tipo red-
a-red (una LAN/WAN con otra).

La utilización de IPsec en Fedora utiliza Intercambio de Clave de Internet (IKE, por las iniciales en
inglés de Internet Key Exchange), un protocolo implementado por el Equipo de Tareas de Ingeniería
de Internet (IETF, por las iniciales en inglés de Internet Engineering Task Force), utilizado para
autenticación mutua y asociaciones seguras entre sistemas conectados.

2.7.4. Creando una conexión IPsec


Una conexión IPsec está separada en dos etapas lógicas. En la primera etapa, un nodo IPsec inicia la
conexión con el nodo remoto o la red. El nodo remoto o la red verifica las credenciales del nodo que
hace la petición y ambas partes establecen un método de autenticación para la conexión.

En sistemas Fedora, una conexión IPsec utiliza un método de clave pre-compartida para la
autenticación del nodo IPsec. En una conexión IPsec de este tipo, ambos equipos deben utilizar la
misma clave para poder avanzar hacia la segunda etapa de la conexión IPsec.

110
Instalación de IPsec

La segunda etapa de la conexión IPsec consiste en la creación de una Asociación de seguridad (SA,
por las iniciales en inglés de Security Association) entre los nodos IPsec. Esta etapa genera una
base de datos SA con información de configuración, como el método de encriptado, los parámetros
de intercambio de clave para la sesión secreta, y demás informaciones necesarias. Esta etapa
administra la conexión IPsec actual entre los nodos remotos y las redes.

La implementación de IPsec en Fedora utiliza IKE para compartir claves entre equipos a través de
Internet. El demonio para claves racoon administra la distribución y el intercambio de clave IKE. Para
obtener mayor información acerca de este demonio, vea la página man de racoon.

2.7.5. Instalación de IPsec


La implementación de IPsec necesita tener instalado el paquete RPM ipsec-tools en todos los
equipos IPsec (si es que se está utilizando una configuración de tipo equipo-a-equipo), o enrutadores
(si es es que se está utilizando una configuración de tipo red-a-red). El paquete RPM contiene
bibliotecas esenciales, demonios, y archivos de configuración para establecer la conexión IPsec,
como por ejemplo:

• /sbin/setkey — manipula la administración de clave y los atributos de seguridad para IPsec en


el kernel. Este ejecutable es controlado por el demonio de administración de clave racoon. Para
obtener mayor información, consulte la página man número 8 de setkey.

• /usr/sbin/racoon — el demonio de administración de clave IKE, utilizado para administrar y


controlar las asociaciones de seguridad y el compartido de clave entre los sistemas conectados con
IPsec.

• /etc/racoon/racoon.conf — el archivo de configuración del demonio racoon utilizado para


configurar varios aspectos de la conexión IPsec, incluyendo los métodos de autenticación y los
algoritmos de encriptado utilizados en ella. Para conocer una lista con todas las directivas, consulte
la página man número 5 de racoon.conf.

Para configurar IPsec en Fedora, puede utilizar la Herramienta Administración de Red, o editar
manualmente la red y los archivos de configuración de IPsec.

• Para conectar dos equipos en red utilizando IPsec, vea la Sección 2.7.6, “Configuración de IPsec
equipo-a-equipo”.

• Para conectar una LAN/WAN con otra utilizando IPsec, vea la Sección 2.7.7, “Configuración IPsec
red-a-red”.

2.7.6. Configuración de IPsec equipo-a-equipo


IPsec puede configurarse para conectar un equipo de escritorio o estación de trabajo con otro
mediante una conexión de tipo equipo-a-equipo. Este tipo de conexión utiliza la red a la que cada
uno de los equipos se conecta para crear un túnel seguro entre cada equipo. Los requerimientos
de una conexión de equipo-a-equipo son mínimos, al igual que la configuración de IPsec. El equipo
necesita solo una conexión dedicada a una red que haga de medio de transporte (como lo es Internet)
y Fedora para crear la conexión IPsec.

2.7.6.1. Conexión equipo-a-equipo


Una conexión de tipo equipo-a-equipo es una conexión encriptada entre dos sistemas, ambos
utilizando IPsec con la misma clave de autenticación. Con la conexión IPsec activa, cualquier tráfico
de red entre los dos equipos es encriptada.

111
Capítulo 2. Asegurando su Red

Para configurar una conexión IPsec de tipo equipo-a-equipo, siga los siguientes pasos para cada
equipo:

Nota
Debería realizar los siguientes procedimientos en la máquina actual que está
configurando. Evite intentar establecer o configurar conexiones IPsec remotamente.

1. En una terminal, ingrese system-config-network para iniciar la Herramienta de


administración de red.

2. En la pestaña de IPsec, haga clic en Nuevo para iniciar el asistente de configuración de IPsec.

3. haga clic en Siguiente para iniciar la configuración de una conexión IPsec de equipo-a-equipo.

4. Ingrese un nombre único para la conexión, por ejemplo, ipsec0. Si lo necesita, tilde la casilla
para activar automáticamente la conexión cada vez que encienda el equipo. Haga clic en
Siguiente para continuar.

5. Seleccione Encriptado de equipo a equipo como el tipo de conexión, y luego haga clic en
Siguiente.

6. Seleccione el tipo de método de encriptado a utilizarse: manual o automático.

Si selecciona encriptado manual, deberá indicar más adelante una clave de encriptado. Si
selecciona encriptado automático, el demonio racoon se encarga de administrar la clave del
encriptado. El paquete ipsec-tools debe estar instalado si quiere utilizar la encriptación
automática.

Haga clic en Siguiente para continuar.

7. Ingrese la dirección IP de equipo remoto.

Para determinar la dirección IP del equipo remoto, utilice el siguiente comando en el equipo
remoto:

[root@myServer ~] # /sbin/ifconfig <device>

donde <device> es el dispositivo Ethernet que quiere utilizar para la conexión VPN.

Si solo existe una tarjeta Ethernet en el sistema, el nombre del dispositivo seguramente será eth0.
El siguiente ejemplo muestra la información pertinente de este comando (recuerde que ese es
sólo un ejemplo):

eth0 Link encap:Ethernet HWaddr 00:0C:6E:E8:98:1D


inet addr:172.16.44.192 Bcast:172.16.45.255 Mask:255.255.254.0

La dirección IP es el número siguiente a la etiqueta inet addr:.

112
Configuración de IPsec equipo-a-equipo

Nota
Para conexiones de tipo equipo-a-equipo, los dos equipos deberían tener una
dirección pública enrutable. Alternativamente, los dos equipos pueden tener
una dirección privada no enrutable (por ejemplo, entre los rangos 10.x.x.x o
192.168.x.x) siempre y cuando se encuentren en la misma LAN.

Si los equipos se encuentran en diferentes LANs, o uno de ellos tiene una


dirección pública y el otro una dirección privada, vea la Sección 2.7.7,
“Configuración IPsec red-a-red”.

Haga clic en Siguiente para continuar.

8. Si en el paso 6 se ha seleccionado un cifrado manual, especifique la clave de cifrado a ser


utilizada, o haga clic en Generar para crear una.

a. Indique una clave de autenticación o haga clic en Generar para generar una. Puede ser una
combinación de números y letras.

b. Haga clic en Siguiente para continuar.

9. Verifique la información en la página IPsec — Resumen, y luego haga clic en el botón Aplicar.

10. Haga clic en Archivo => Guardar para guardar la configuración.

Tal vez necesite reiniciar la red para que los cambios tengan efecto. Para reiniciar la red, utilice el
siguiente comando:

[root@myServer ~]# service network restart

11. Seleccione la conexión IPsec de la lista y haga clic en el botón de Activar.

12. Repita el procedimiento entero para el otro equipo. Es fundamental que se utilice la misma clave
del paso 8 en los demás equipos. De lo contrario, IPsec no funcionará.

Luego de configurar la conexión IPsec, aparecerá en la lista IPsec como se lo indica en la


Figura 2.10, “Conexión IPsec”.

113
Capítulo 2. Asegurando su Red

Figura 2.10. Conexión IPsec

Los siguientes archivos son creados cuando la conexión IPsec es configurada:

• /etc/sysconfig/network-scripts/ifcfg-<nickname>

• /etc/sysconfig/network-scripts/keys-<nickname>

• /etc/racoon/<remote-ip>.conf

• /etc/racoon/psk.txt

Si se elige encriptación automática, entonces también se crea el archivo /etc/racoon/


racoon.conf.

Cuando la interfaz esté funcionando, el archivo /etc/racoon/racoon.conf se modifica para que


pueda inlcuir a <remote-ip>.conf.

2.7.6.2. Configuración manual de una conexión IPsec de tipo equipo-a-


equipo
El primer paso para crear una conexión es obtener información tanto del sistema como de la red para
cada estación de trabajo. Para una conexión de tipo equipo-a-equipo, se necesita lo siguiente:

• La dirección IP de cada equipo

• Un nombre único, por ejemplo, ipsec1. Esto es utilizado para identificar la conexión IPsec y poder
identificarla de otros dispositivos o conexiones.

• Una clave de encriptado manual, o automáticamente generada por racoon.

114
Configuración de IPsec equipo-a-equipo

• Una clave de autenticación pre-compartida que es utilizada a lo largo de la etapa inicial de la


conexión, y que también será utilizada luego para intercambiar claves de encriptado durante de la
sesión.

Por ejemplo, suponga que la estación de trabajo A y la estación de trabajo B quieren conectarse entre
ellas mediante de un túnel IPsec. Quieren conectarse utilizando una clave pre-compartida con el
valor de Key_Value01, y los usuarios acuerdan la utilización de racoon para generar y compartir
una clave de autenticación entre cada equipo. Los usuarios de ambos equipos deciden referirse a su
conexión como ipsec1..

Nota
Debería elegir una PSK (clave pre-compartida) que utilice una mezcla de caracteres
en mayúscula y en minúscula, números y signos de puntuación. Una PSK fácil de
adivinar constituye un riesgo de seguridad.

No es necesario utilizar el mismo nombre de conexión para cada equipo. Debería


elegir un nombre que sea conveniente y que tenga sentido para su instalación.

A continuación mostramos un archivo de configuración IPsec en la estación de trabajo A para una


conexión IPsec de tipo equipo-a-equipo con la estación de trabajo B. El nombre único para identificar
la conexión en este ejemplo es ipsec1, de modo que el archivo resultante es denominado /etc/
sysconfig/network-scripts/ifcfg-ipsec1.

DST=X.X.X.XTYPE=IPSEC
ONBOOT=no
IKE_METHOD=PSK

Para la estación de trabajo A, X.X.X.X es la dirección IP de la estación de trabajo B. Para la


estación de trabajo B, X.X.X.X es la dirección IP de la estación de trabajo A. Esta conexión no
está configurada para iniciarse con el arranque del equipo (ONBOOT=no) y utiliza el método de
autenticación de clave pre-compartida (IKE_METHOD=PSK).

El siguiente es el contenido del archivo de clave pre-compartida (denominado /etc/sysconfig/


network-scripts/keys-ipsec1) que las dos estaciones de trabajo necesitan para poder
autenticarse entre ellas. El contenido de este archivo debe ser idéntico en ambas estaciones de
trabajo, y solo el usuario root debería ser capaz de leer o escribir en este archivo.

IKE_PSK=Key_Value01

Importante
Para modificar el archivo keys-ipsec1 de modo que solo el usuario root pueda
leerlo o editarlo, utilice el siguiente comando luego de haberlo creado:

[root@myServer ~] # chmod 600 /etc/sysconfig/network-scripts/keys-ipsec1

Para modificar la clave de autenticación en cualquier momento, edite el archivo keys-ipsec1 en


ambas estaciones de trabajo. Las dos claves de autenticación deben ser idénticas para una conexión
correcta.

115
Capítulo 2. Asegurando su Red

El siguiente ejemplo muestra la configuración específica de la primera fase de la conexión con el


equipo remoto. El archivo es denominado X.X.X.X.conf, donde X.X.X.X es la dirección IP del
equipo IPsec remoto. Fijese que este archivo es generado automáticamente cuando el túnel IPsec es
activado y no debería ser editado directamente.

remote X.X.X.X{
exchange_mode aggressive, main;
my_identifier address;
proposal {
encryption_algorithm 3des;
hash_algorithm sha1;
authentication_method pre_shared_key;
dh_group 2 ;
}
}

El archivo de configuración de la etapa 1 que se ha creado por defecto cuando se inicia una conexión
IPsec, contiene las siguientes directivas utilizadas por la implementación de IPsec de Fedora:

remote X.X.X.X
Indica que las siguientes líneas en este archivo de configuración se aplican solo al nodo remoto
identificado por la dirección IP X.X.X.X.

exchange_mode aggressive
La configuración establecida por defecto en Fedora para IPsec utiliza un método de autenticación
agresivo, que disminuye los excedentes de la conexión, permitiendo la configuración de varias
conexiones IPsec con múltiples equipos.

my_identifier address
Indica el método de identificación a ser utilizado cuando se autentican nodos. Fedora utiliza
direcciones IP para identificar nodos.

encryption_algorithm 3des
Especifica el cifrador de encriptación utilizado durante la autenticación. Por defecto, se usa
el Estándar de Encriptación de Datos Triple (3DES, por las iniciales en inglés de Triple Data
Encryption Standard).

hash_algorithm sha1;
Indica el algoritmo hash utilizado durante la negociación entre los nodos de la etapa 1. Por
defecto, se utiliza un algoritmo de hash seguro (SHA, por las iniciales en inglés de Secure Hash
Algorithm).

authentication_method pre_shared_key
Indica el método de autenticación utilizado durante la negociación del nodo. Por defecto, Fedora
utiliza una clave pre-compartida para la autenticación.

dh_group 2
Indica el número de grupo Diffie-Hellman para establecer claves de sesiones generadas
dinámicamente. Por defecto, se utiliza modp1024 (segundo grupo).

2.7.6.2.1. El Archivo de configuración Racoon


Los archivos /etc/racoon/racoon.conf deben ser idénticos en todos los nodos IPsec, excepto
para la directiva include "/etc/racoon/X.X.X.X.conf". Esta directiva (y el archivo al que
se refiere) es generada cuando el túnel IPsec es activado. Para la estación de trabajo A, el valor

116
Configuración de IPsec equipo-a-equipo

X.X.X.X en la directiva include es la dirección IP de la estación de trabajo B. Y para la estación de


trabajo B, lo contrario. A continuación mostramos un archivo racoon.conf típico cuando se activa
una conexión IPsec.

# Racoon IKE daemon configuration file.


# See 'man racoon.conf' for a description of the format and entries.

path include "/etc/racoon";


path pre_shared_key "/etc/racoon/psk.txt";
path certificate "/etc/racoon/certs";

sainfo anonymous
{
pfs_group 2;
lifetime time 1 hour ;
encryption_algorithm 3des, blowfish 448, rijndael ;
authentication_algorithm hmac_sha1, hmac_md5 ;
compression_algorithm deflate ;
}
include "/etc/racoon/X.X.X.X.conf";

Este archivo racoon.conf establecido por defecto incluye caminos definidos para la configuración
de IPsec, claves pre-compartidas y certificados. Los campos de sainfo anonymous describen
la etapa SA 2 entre los nodos IPsec — el tipo de conexión IPsec (incluyendo los algoritmos de
encriptación utilizados soportados), y el método de intercambio de claves. La siguiente lista define los
campos de la estapa 2:

sainfo anonymous
Indica que SA puede iniciarse anónimamente con cualquier par ofrecido que se corresponda con
las credenciales de IPsec.

pfs_group 2
Define el protocolo de intercambio de claves Diffie-Hellman, que determina el método por el cual
los nodos IPsec establecen una clave de sesión mutua y temporal para la segunda etapa de
la conectividad IPsec. Por defecto, la implementación en Fedora de IPsec utiliza el segundo (o
modp1024) de los grupos Diffie-Hellman de intercambio de claves criptográficas. EL segundo
grupo utiliza una exponenciación modular de 1024 bits que evita que los atacantes puedan
decriptar transmisiones IPsec, aún si una de las claves privadas ha sido vulnerada.

lifetime time 1 hour


Este parámetro indica el período de vida de una SA y puede ser medido o bien en unidades
de tiempo, o bien con datos. La implementación en Fedora establecida por defecto de IPsec
especifica un tiempo de vida de una hora.

encryption_algorithm 3des, blowfish 448, rijndael


Indica la cifra de encriptación soportada para la etapa 2. Fedora soporta 3DES, Blowfish de
448 bits, y Rijndael (la cifra utilizada en el Estándard avanzado de encriptación, or AES, por las
iniciales en inglés de Advanced Encryption Standard).

authentication_algorithm hmac_sha1, hmac_md5


Muestra los algoritmos hash soportados para la autenticación. Los módulos soportados son los
códigos de autenticación de mensajes de hash sha1 y md5 (HMAC).

117
Capítulo 2. Asegurando su Red

compression_algorithm deflate
Indica el algoritmo de compresión Deflate para el soporte de IP Payload Compression (IPCOMP),
que potencialmente permite transmisiones más rápidas de datagramas IP sobre conexiones más
lentas.

Para iniciar una conexión, utilice el siguiente comando en cada uno de los equipos:

[root@myServer ~]# /sbin/ifup <nickname>

donde <nickname> es el nombre que ha indicado para la conexión IPsec.

Para verificar la conexión IPsec, ejecute la herramienta tcpdump para conocer los paquetes de red
que están siendo transferidos entre los equipos, y verifique que están encriptados mediante IPsec. El
paquete debería incluir un encabezado AH y debería mostrarse como un paquete ESP. ESP significa
que está encriptado. Por ejemplo:

[root@myServer ~]# tcpdump -n -i eth0 host <targetSystem>

IP 172.16.45.107 > 172.16.44.192: AH(spi=0x0954ccb6,seq=0xbb): ESP(spi=0x0c9f2164,seq=0xbb)

2.7.7. Configuración IPsec red-a-red


IPsec también puede ser configurado para conectar totalmente a una red (como por ejemplo una LAN
o WAN) con otra red remota utilizando una conexión de tipo red-a-red. Este tipo de conexión requiere
la configuración de enrutadores IPsec en cada lado de las redes que se quieren conectar para hacer
el proceso transparente y enrutar información de un nodo en una LAN, hacia un nodo en una LAN
remota. Figura 2.11, “Una conexión por túnel IPsec de tipo red-a-red” muestra un túnel de conexión
IPsec de tipo red-a-red.

Figura 2.11. Una conexión por túnel IPsec de tipo red-a-red

El siguiente diagrama muestra dos LANs diferentes separadas por Internet. Estas LANs utilizan
enrutadores IPsec para autenticar e iniciar una conexión utilizando un túnel seguro a través de
Internet. Los paquetes en tránsito entre estas dos LANs que sean interceptados, necesitarían un
método de decriptado de tipo fuerza bruta para poder atravesar la protección que poseen. El proceso
de comunicación de un nodo en el rango IP 192.168.1.0/24, con otro del rango IP 192.168.1.0/24 es
completamente transparente a los nodos, al igual que el proceso, encriptado, decriptado, y enrutado
de los paquetes IPsec, es completamente manipulado por el enrutador IPsec.

La información necesaria para una conexión de tipo red-a-red incluye:

• La dirección IP externamente accesible del enrutador dedicado IPsec

118
Configuración IPsec red-a-red

• Los rangos de dirección de red de LAN/WAN ofrecidos por los enrutadores IPsec (como por
ejemplo, 192.168.1.0/24 or 10.0.1.0/24)

• Las direcciones IP de los dispositivos de las puertas de enlace que enrutan los datos desde los
nodos de red hacia Interne

• Un nombre único, por ejemplo, ipsec1. Esto es utilizado para identificar la conexión IPsec y poder
identificarla de otros dispositivos o conexiones.

• Una clave de encriptado generada manualmente, o automáticamente mediante la utilización de


racoon

• Una clave de autenticación pre-compartida que es utilizada a lo largo de la etapa inicial de la


conexión, y que también será utilizada luego para intercambiar claves de encriptado durante de la
sesión.

2.7.7.1. Conexión red-a-red (VPN)


Una conexión IPsec de tipo red-a-red utiliza dos enrutadores IPsec, uno para cada red, a través de
los cuales es enrutado el tráfico de red para las subredes privadas.

Por ejemplo, como se muestra en la Figura 2.12, “IPsec red-a-red”, si la red privada 192.168.1.0/24
envía tráfico hacia la red privada 192.168.2.0/24, los paquetes van a través de la puerta-de-enlace-0,
al ipsec0, a través de internet, hacia ipsec1, a la puerta-de-enlace-1, y hacia la subred 192.168.2.0/24

Los enrutadores IPsec necesitan direcciones IP públicas capaces de recibir paquetes, y un segundo
dispositivo Ethernet conectado a sus respectivas redes privadas. El tráfico sólo viaja a través de un
enrutador IPsec si su destinatario es otro enrutador IPsec con el cual ha establecido una conexión
encriptada.

Figura 2.12. IPsec red-a-red


Opciones alternativas para la configuración de red pueden establecer un cortafuegos entre Internet
y cada enrutador IP, y un cortafuegos de intranet entre el enrutador IPsec y la puerta de enlace de
la subred. En enrutador IPsec y la puerta de enlace para la subred puede ser un sistema con dos
dispositivos Ethernet: uno con una dirección IP pública que actúa como un enrutador IPsec; y otro con
una dirección Ip privada que actúa como la puerta de enlace para la subred privada. Cada enrutador
IPsec puede utilizar la puerta de enlace para sus redes privadas, o una puerta de enlace pública para
enviar los paquetes al otro enrutador IPsec.

Utilice el siguiente procedimiento para configurar una conexión IPsec de tipo red-a-red:

1. En una terminal, ingrese system-config-network para iniciar la Herramienta de


administración de red.

119
Capítulo 2. Asegurando su Red

2. En la pestaña de IPsec, haga clic en Nuevo para iniciar el asistente de configuración de IPsec.

3. Haga clic en Siguiente para empezar a configurar una conexión IPsec de tipp red-a-red.

4. Ingrese un nombre de usuario único para la conexión, por ejemplo, ipsec0. Si lo necesita, tilde
la casilla para que automáticamente se active la conexión cuando se inicie el equipo. Haga clic en
Siguiente para continuar.

5. Seleccione Encriptado de red a red (VPN) como el tipo de conexión, y luego haga clic en
Siguiente.

6. Seleccione el tipo de método de encriptado a utilizarse: manual o automático.

Si selecciona encriptado manual, deberá indicar más adelante una clave de encriptado. Si
selecciona encriptado automático, el demonio racoon se encarga de administrar la clave del
encriptado. El paquete ipsec-tools debe estar instalado si quiere utilizar la encriptación
automática.

Haga clic en Siguiente para continuar.

7. En la página Red local, ingrese la siguiente información:

• Local Network Address — La direción IP del dispositivo en el enrutador IPsec conectado a la


red privada.

• Local Subnet Mask — La máscara de subred de la dirección IP de la red local.

• Local Network Gateway — La puerta de enlace para la subred privada.

Haga clic en Siguiente para continuar.

120
Configuración IPsec red-a-red

Figura 2.13. Información de red local

8. En la página de Red remota, ingrese la siguiente información:

• Remote IP Address — La dirección IP pública capaz de recibir tráfico del enrutador IPsec para
la otra red privada. En nuestro ejemplo, para ipsec0, ingrese la dirección IP pública capaz de
recibir tráfico de upsec1, y viceversa.

• Remote Network Address — La dirección de red de la subred privada detrás del otro
enrutador IPsec. En nuestro ejemplo, ingrese 192.168.1.0 si está configurando ipsec1, e
ingrese 192.168.2.0 si está configurando ipsec0.

• Remote Subnet Mask — La máscara de subred de la dirección IP remota.

• Remote Network Gateway — La dirección Ip de la puerta de enlace para la dirección de red


remota.

• Si en la etapa 6 se ha seleccionado cifrado manual, especifique la clave de cifrado a ser


utilizada, o haga clic en Generar para crear una.

Especifique una clave de autenticación o haga clic en Generar para crear una. Esta clave
puede ser cualquier combinación de números y letras.

Haga clic en Siguiente para continuar.

121
Capítulo 2. Asegurando su Red

Figura 2.14. Información de red remota

9. Verifique la información en la página IPsec — Resumen, y luego haga clic en el botón Aplicar.

10. Seleccione Archivo => Guardar para guardar la configuración.

11. Seleccione la conexión IPsec de la lista, y luego haga clic en Activar para activar la conexión.

12. Habilitando reenvío IP:

a. Edite el archivo /etc/sysctl.conf y establezca net.ipv4.ip_forward a 1.

b. Use el siguiente comando para habilitar los cambios:

[root@myServer ~]# /sbin/sysctl -p /etc/sysctl.conf

El programa de red para activar la conexión IPsec automáticamente crea rutas de red para enviar
paquetes a través del enrutador IPsec, si es necesario.

2.7.7.2. Configuración manual de una conexión IPsec de tipo red-a-red.


Suponga que LAN A (lana.ejemplo.com) y LAN B (lanb.ejemplo.com) quieren conectarse entre ellas
mediante un túnel IPsec. La dirección de red para LAN A está en el rango 192.168.1.0/24. mientras
qye LAN B utiliza el rango 192.168.2.0/24. La dirección IP de la puerta de enlace es 192.1686.1.254
para LAN A y 192.168.2.254 para LAN B. Los enrutadores IPsec están separados de cada puerta de
enlace LAN y utilizan dos dispositivos de red: eth0 está asignado a una dirección IP estática accesible

122
Configuración IPsec red-a-red

desde el exterior que tiene acceso a Internet, mientras eth1 actúa como un punto de enrutamiento
para procesar y transmitir los paquetes LAN de un nodo de red a otro.

La conexión IPsec entre cada red utiliza una clave pre-compartida con el valor de r3dh4tl1nux,
y los administradores de A y B están de acuerdo en permitir que racoon genere automáticamente
y comparta una clave de autenticación entre cada enrutador IPsec. El administrador de LAN A
decide identificar a la conexión IPsec como ipsec0, mientras que el administrador de LAN B decide
identificarla como ipsec1.

El siguiente ejemplo muestra los contenidos del archivo ifcfg para una conexión IPsec de tipo red-
a-red para LAN A. El único nombre para identificar la conexión en este ejemplo es ipsec0, de modo
que el archivo resultante es /etc/sysconfig/network-scripts/ifcfg-ipsec0.

TYPE=IPSEC
ONBOOT=yes
IKE_METHOD=PSK
SRCGW=192.168.1.254
DSTGW=192.168.2.254
SRCNET=192.168.1.0/24
DSTNET=192.168.2.0/24
DST=X.X.X.X

La siguiente lista describe los contenidos de este archivo:

TYPE=IPSEC
Especifica el tipo de conexión.

ONBOOT=yes
Indica que la conexión debería iniciarse en el arranque.

IKE_METHOD=PSK
Indica que la conexión utiliza el método de clave pre-compartida para su autenticación.

SRCGW=192.168.1.254
La dirección IP de la puerta de enlace origen. Para LAN A, es la puerta de enlace de LAN A, y
para LAN B, la puerta de enlace LAN B.

DSTGW=192.168.2.254
La dirección IP de la puerta de enlace destino. Para LAN A, es la puerta de enlace de LAN B, y
para LAN B, la puerta de enlace de LAN A.

SRCNET=192.168.1.0/24
Indica la red de origen para la conexión IPsec, que en nuestro ejemplo es el rango de red para
LAN A.

DSTNET=192.168.2.0/24
Indica la red destino para la conexión IPsec, que en nuestro ejemplo, es el rango de red para LAN
B.

DST=X.X.X.X
La dirección IP accesible desde el exterior de LAN B.

El siguiente ejemplo es el contenido del archivo de clave pre-compartida denominado /etc/


sysconfig/network-scripts/keys-ipsecX (donde X es 0 para LAN A, y 1 para LAN B), que

123
Capítulo 2. Asegurando su Red

utilizan ambas redes para autenticarse entre ellas. Los contenidos de este archivo deberían ser
idénticos y solo el usuario root debería ser capaz de leer o escribir sobre este archivo.

IKE_PSK=r3dh4tl1nux

Importante
Para modificar el arhivo keys-ipsecX de modo que solo el usuario root pueda
leerlo o editarlo, utilice el siguiente comando luego de haberlo creado:

chmod 600 /etc/sysconfig/network-scripts/keys-ipsec1

Para modificar la clave de autenticación en cualquier momento, edite el archivo keys-ipsecX en


ambos enrutadores IPsec. Ambas claves deben ser idénticas para una conexión correcta.

En el siguiente ejemplo se muestran los contenidos del archivo de configuración /etc/racoon/


racoon.conf para la conexión IPsec. Fíjese que la línea include al final del archivo es generada
automáticamente y solo aparece si el tunel IPsec está ejecutándose.

# Racoon IKE daemon configuration file.


# See 'man racoon.conf' for a description of the format and entries.
path include "/etc/racoon";
path pre_shared_key "/etc/racoon/psk.txt";
path certificate "/etc/racoon/certs";

sainfo anonymous
{
pfs_group 2;
lifetime time 1 hour ;
encryption_algorithm 3des, blowfish 448, rijndael ;
authentication_algorithm hmac_sha1, hmac_md5 ;
compression_algorithm deflate ;
}
include "/etc/racoon/X.X.X.X.conf"

La siguiente es la configuración específica para la conexión con la red remota. El archivo es


denominado X.X.X.X.conf (donde X.X.X.X es la dirección IP del enrutador IPsec remoto). Fíjese
que este archivo es automáticamente generado cuando el túnel IPsec es activado y no debería ser
editado directamente.

remote X.X.X.X{
exchange_mode aggressive, main;
my_identifier address;
proposal {
encryption_algorithm 3des;
hash_algorithm sha1;
authentication_method pre_shared_key;
dh_group 2 ;
}
}

Antes de empezar la conexión IPsec, debería ser habilitado el reenvío de IP en el kernel. Para
hacerlo:

1. Edite el archivo /etc/sysctl.conf y establezca net.ipv4.ip_forward a 1.

124
Iniciar y detener una conexión IPsec

2. Use el siguiente comando para habilitar los cambios:

[root@myServer ~] # sysctl -p /etc/sysctl.conf

Para iniciar la conexión IPsec, utilice el siguiente comando en cada enrutador:

[root@myServer ~] # /sbin/ifup ipsec0

Las conexiones están activas, y tanto LAN A como LAN B son capaces de comunicarse entre
ellas. Las rutas fueron creadas automáticamente mediante la inicialización de un programa que fue
activado al ejecutarse ifup en la conexión IPsec. Para mostrar una lista de rutas para la red, utilice el
siguiente comando:

[root@myServer ~] # /sbin/ip route list

Para verificar la conexión IPsec, ejecute la herramienta tcpdump en el dispositivo enrutable


externamente (en nuestro ejemplo, eth0) para ver los paquetes de red que están siendo transferidos
entre los equipos (o redes) y verifique que estén encriptados mediante IPsec. Por ejemplo, para
verificar la conectividad IPsec de LAN A, utilice el siguiente comando:

[root@myServer ~] # tcpdump -n -i eth0 host lana.example.com

El paquete debería incluir un encabezado AH y debería mostrarse como paquetes ESP. ESP significa
que está encriptado. Por ejemplo (las líneas invertidas indican que la línea continúa):

12:24:26.155529 lanb.example.com > lana.example.com: AH(spi=0x021c9834,seq=0x358): \


lanb.example.com > lana.example.com: ESP(spi=0x00c887ad,seq=0x358) (DF) \
(ipip-proto-4)

2.7.8. Iniciar y detener una conexión IPsec


Si la conexión IPsec no fue configurada para activarse durante el arranque del equipo, puede
controlarla desde la línea de comandos.

Para iniciar la conexión, utilice el siguiente comando en cada uno de los equipos para una IPsec de
tipo equipo-a-equipo, o en cada uno de los enrutadores IPsec para una IPsec de tipo red-a-red:

[root@myServer ~] # /sbin/ifup <nickname>

donde <nickname> es el apodo configurado antes, como por ejemplo, ipsec0.

Para detener la conexión, use el siguiente comando:

[root@myServer ~] # /sbin/ifdown <nickname>

2.8. Cortafuegos
La seguridad de la información es comúnmente entendida como un proceso, y no como un producto.
Sin embargo, generalmente las implementaciones estándar de seguridad utilizan alguna forma
de mecanismo específico para controlar los accesos privilegiados y restringir los recursos de red
a usuarios que estén debidamente autorizados para ello, y al mismo tiempo poder identificarlos

125
Capítulo 2. Asegurando su Red

y rastrearlos. Fedora incluye diferentes herramientas para ayudar a los administradores y a los
ingenieros en seguridad, con los diferentes problemas que puedan surgir al controlar los accesos
jerarquizados a la red.

Los cortafuegos son uno de los componentes fundamentales para la implementación de la seguridad
en una red. Diversos proveedores ofrecen herramientas para cortafuegos para todos los niveles
del mercado: desde usuarios hogareños protegiendo los datos de su PC, hasta herramientas para
centros de datos que permitan proteger los datos vitales de una empresa. Los cortafuegos pueden
ser herramientas para un sólo equipo físico, como las aplicaciones de cortafuego que ofrecen Cisco,
Nokia y Sonicwall. Proveedores como Checkpoint, McAfee y Symantec también han desarrollado
herramientas de cortafuegos de código propietario, tanto para el hogar como para los segmentos
comerciales del mercado.

Además de las diferencias entre los cortafuegos basados en hardware o en software, existen
también diferencias en la manera en que el cortafuego funciona, separando una herramienta de otra.
Tabla 2.2, “Tipos de cortafuegos” describe tres tipos comunes de cortafuegos, y cómo funcionan cada
uno de ellos:

Método Descripción Ventajas Desventajas


NAT Network Address · Se puede configurar · No se puede prevenir la
Translation (NAT), coloca transparentemente para actividad maliciosa una
direcciones IP de subredes máquinas en una LAN. vez que los usuarios se
privadas, detrás de · La protección de muchas conecten a un servicio fuera
un pequeño grupo de máquinas y servicios detrás del cortafuegos.
direcciones IP públicas, de una o más direcciones
enmascarando todas IP externas simplifica las
las peticiones hacia un tareas de administración.
recurso, en lugar de varios. · La restricción del acceso a
El kernel de Linux tiene usuarios dentro y fuera de
una funcionalidad NAT la LAN se puede configurar
predefinida, mediante el abriendo o cerrando puertos
subsistema del kernel en el cortafuego/puerta de
Netfilter. enlace NAT.
Filtros Un cortafuegos de filtro · Personalizable a través del · No se pueden filtrar
de de paquete lee cada uno utilitario iptables. paquetes para contenidos
Paquete de los datos que viajan a · No necesita cualquier como en los cortafuegos
través de una LAN. Puede personalización del lado del proxy.
leer y procesar paquetes cliente, dado que toda la · Procesa los paquetes en la
según la información de actividad de red se filtra en capa del protocolo, pero no
sus encabezados, y filtrar el nivel del ruteador en vez los puede filtrar en la capa
el paquete basándose de a nivel de aplicación. de una aplicación.
en un conjunto de · Debido a que los paquetes · Las arquitecturas de red
reglas programables no se transmiten a través de complejas pueden complicar
implementadas por un proxy, el rendimiento de el armado de las reglas
el administrador del la red es más rápida debido de filtrado de paquetes,
cortafuegos. El kernel a la conexión directa entre especialmente si se lo
de Linux tiene una el cliente y el equipo remoto. hace con el enmascarado
funcionalidad de filtro de de IP o con subredes
paquetes predefinida, locales y redes de zonas
mediante el subsistema del desmilitarizadas.
kernel Netfilter.

126
Netfilter e IPTables

Método Descripción Ventajas Desventajas


Proxy El cortafuegos proxy filtra · Le da a los · Los proxies son a menudo
todas las peticiones de administradores el control específicos a una aplicación
los clientes LAN de un sobre qué aplicaciones y (HTTP, Telnet, etc.), o
determinado protocolo, o protocolos funcionan fuera restringidos a un protocolo
tipo, hacia una máquina de la LAN. (la mayoría de los proxies
proxy, la que luego realiza · Algunos servidores funcionan sólo con servicios
esas mismas peticiones proxy, pueden hacer que usan conexiones TCP).
a Internet, en nombre del cache de datos accedidos · Los servicios de aplicación
cliente local. Una máquina frecuentemente en vez de no se pueden ejecutar
proxy actúa como un búfer tener que usar la conexión a detrás de un proxy, por
entre usuarios remotos Internet para bajarlos. Esto lo que sus servidores de
maliciosos y la red interna ayuda a reducir el consumo aplicación deben usar
de máquinas clientes. de ancho de banda. una forma separada de
· Los servicios de proxy seguridad de red.
pueden ser registrados y · Los proxies se pueden
monitoreados más de cerca, volver cuellos de botellas,
lo que permite un control dado que todos los pedidos
más estricto sobre el uso de y transmisiones son
los recursos de la red. pasados a través de una
fuente, en vez de hacerlo
directamente desde el
cliente al servicio remoto.
Tabla 2.2. Tipos de cortafuegos

2.8.1. Netfilter e IPTables


El kernel de Linux posee un poderoso subsistema de red denominado Netfilter. El subsistema Netfilter
ofrece filtro total o parcial de paquetes, así como servicios de enmascaramiento NAT e IP. Netfilter
también tiene la habilidad de transformar la información de los encabezados IP para enrutamiento
avanzado y administración del estado de la conexión. Netfilter es controlado mediante la utilización de
la herramienta iptables.

2.8.1.1. Introducción a IPTables


El poder y la flexibilidad de Netfilter se implementa utilizando iptables, una herramienta de
administración de línea de comando con sintaxis similar a la de su predecesor, ipchains, la cual
Netfilter/iptables ha reemplazado a partir del kernel LInux 2.4.

iptables utiliza el subsistema Netfilter para incrementar la conexión, inspección y procesamiento


de la red. iptables ofrece registro avanzado, acciones pre y post enrutamiento, traducción de
direcciones de red y reenvío de puerto, todo en una interfaz de línea de comandos.

Esta sección ofrece un resumen acerca de iptables. Para obtener información más detallada,
diríjase a la Sección 2.9, “IPTables”.

2.8.2. Configuración básica de un cortafuego


Del mismo modo que el extintor de incendios en un edificio intenta prevenir que se propague un
incendio, en una computadora, un cortafuegos intenta prevenir que algún tipo de software malicioso
se propague en su equipo. También ayuda a prevenir que usuarios no autorizados accedan a su
computadora.

127
Capítulo 2. Asegurando su Red

En una instalación por defecto de Fedora existe un cortafuegos entre su computadora o red,
y cualquier otra red considerada como no segura, como por ejemplo lo es Internet. Determina
qué servicios en su computadora pueden ser accedidos por usuarios remotos. Un cortafuegos
correctamente configurado puede incrementar enormemente la seguridad de su sistema. Se
recomienda que configure un cortafuegos para cualquier sistema Fedora que tenga una conexión a
Internet.

2.8.2.1. Firewall Configuration Tool


En el proceso de instalación de Fedora, en la pantalla de Configuración del Cortafuego, se le
ofreció la oportunidad de habilitar un cortafuego básico, así como la posibilidad de utilizar ciertos
dispositivos, servicios entrantes y puertos.

Una vez finalizada la instalación, puede modificar las opciones elegidas mediante la utilización de la
Herramienta de configuración de cortafuegos.

Para iniciar esta aplicación, use el siguiente comando:

[root@myServer ~] # system-config-firewall

Figura 2.15. Firewall Configuration Tool

Nota
Firewall Configuration Tool solo configura un cortafuego básico. Si el sistema
necesita reglas más complejas, diríjase a la Sección 2.9, “IPTables” para conocer
más detalles sobre la configuración de reglas específicas de iptables.

128
Configuración básica de un cortafuego

2.8.2.2. Habilitando y deshabilitando el cortafuego


Seleccione una de las opciones siguientes para el cortafuego:

• Deshabilitado — Deshabilitar el cortafuegos proporciona un acceso completo a su sistema y no


se realiza ninguna verificación de seguridad. Esto debe ser seleccionado sólo si está ejecutando
una red segura (no Internet), o necesite configurar un cortafuego personalizado utilizando la
herramienta de la línea de comandos iptables.

Advertencia
Las configuraciones del cortafuego y cualquier reglas de cortafuegos
personalizadas se almacenan en el archivo /etc/sysconfig/iptables. Si
elije Deshabilitado y hace clic en Aceptar, estas configuraciones y reglas del
cortafuego se perderán.

• Habilitado — Esta opción configura el sistema para rechazar conexiones entrantes que no una
respuesta a peticiones que han sido realizadas, tales como respuestas DNS o peticiones DHCP.
Si se necesita el acceso a servicios de esta máquina, puede elegir habilitar servicios específicos a
través del cortafuego.

Si está conectando su sistema a Internet, pero no planea hacerlo funcionar como servidor, esta es
la opción más segura.

2.8.2.3. Servicios confiables


Habilitando opciones en la lista de Servicios confiables le permite al servicio especificado pasar a
través del cortafuego.

WWW (HTTP)
El protocolo HTTP es utilizado por Apache (y por otros servidores Web) para ofrecer páginas
web. Si tiene pensado hacer que su servidor web esté disponible al público en general, tilde esta
casilla. Esta opción no es requerida para ver páginas en forma local, o para desarrollar páginas
web. Este servicio requiere que el paquete httpd esté disponible.

Habilitando WWW (HTTP) no abrirá el puerto de HTTPS, la versión SSL de HTTP. Si se necesita
este servicio, Elija la casilla WWW Seguro (HTTPS).

FTP
El protocolo FTP se usa para transferir archivos entre máquinas de una red. Si planea hacer su
servidor FTP disponible públicamente, marque este casillero. Este servicio requiere que se instale
el paquete vsftpd.

SSH
Secure Shell (SSH) es una suite de herramientas para registrarse en un equipo remoto y poder
ejecutar comandos en él. Para permitir acceso remoto a una máquina utilizando ssh, tilde esta
casilla. Este servicio requiere que el paquete openssh-server se encuentre instalado.

Telnet
Telnet es un protocolo que permite registrarse en equipos remotos. Las comunicaciones a través
de Telnet no están encriptadas y no ofrece protección ante posibles espías que se encuentren en
la red. No se recomienda permitir el acceso a través de Telnet. Para permitirlo, tilde esta casilla.
Este servicio requiere que el paquete telnet-server se encuentre instalado.

129
Capítulo 2. Asegurando su Red

Mail (SMTP)
SMTP es un protocolo que permite que equipos remotos puedan conectarse directamente con su
máquina para enviar correos electrónicos. No necesita activar este servicio si obtiene su correo
electrónico a través de su servidor ISP, utilizando POP3 o IMAP, o si utiliza una herramienta como
fetchmail. Para permitir el envío de correos electrónico hacia su máquina, seleccione esta
casilla. Tenga en cuenta que una configuración incorrecta de un servidor SMTP puede permitir
que otros equipos utilicen su servidor para enviar correo basura.

NFS4
El Sistema de Archivos de Red (NFS, por las siglas en inglés de Network File System), es un
protocolo para compartir archivos comúnmente utilizado en sistemas *NIX. La versión 4 de este
protocolo es más segura que sus predecesoras. Si quiere compartir archivos y directorios de su
sistema con otros en red, tilde esta casilla.

Samba
Samba es una implementación del protocolo de red SMB de código propietario de Microsoft. Si
necesita compartir archivos, directorios o impresoras conectadas localmente con computadoras
con Microsoft Windows, tilde esta casilla.

2.8.2.4. Otros Puertos


La herramienta de configuración de cortafuegos incluye una sección de Otros Puertos para
especificar puertos IP personalizados de modo tal de considerarlos como seguros por iptables.
Por ejemplo, para permitir que protocolos IRC o de impresión a través de Internet (IPP, por las siglas
en inglés de Internet Printing Protocol) pasen a través del cortafuegos, añada la siguiente línea a la
sección de Other ports:

194:tcp,631:tcp

2.8.2.5. Guardando la configuración


Haga clic en OK para guardar los cambios y activar o desactivar el cortafuegos. Si fue seleccionado
Activar cortafuegos, las opciones seleccionadas serán trasladadas a los comandos iptables y
escritos en el archivo /etc/sysconfig/iptables. El servicio iptables es también iniciado de
modo que el cortafuegos sea activado inmediatamente luego de guardar las opciones seleccionadas.
Si fue seleccionado Desactivar cortafuegos, el archivo /etc/sysconfig/iptables es eliminado
y el servicio iptables es inmediatamente detenido.

Las opciones seleccionadas son también escritas al archivo /etc/sysconfig/system-config-


securitylevel para que la configuración pueda restaurarse la próxima vez que se inicie la
aplicación. No edite este archivo a mano.

Aun si el cortafuegos es activado inmediatamente, el servicio iptables no está configurado para


que se inicie automáticamente durante el arranque del equipo. Vea la Sección 2.8.2.6, “Activando el
servicio IPTables” para obtener más información.

2.8.2.6. Activando el servicio IPTables


Las reglas del cortafuego están solamente activas si el servicio iptables se está ejecutando. Para
iniciar manualmente el servicio, use el siguiente comando:

[root@myServer ~] # service iptables restart

130
Uso de IPTables

Para asegurarse de que iptables se inicie cuando el sistema arranque, use el siguiente comando:

[root@myServer ~] # chkconfig --level 345 iptables on

2.8.3. Uso de IPTables


El primer paso en el uso de iptables es iniciar el servicio iptables. Use el siguiente comando
para iniciar el servicio iptables:

[root@myServer ~] # service iptables start

Nota
El servicio ip6tables puede ser desactivado si usted intenta utilizar solamente
el servicio iptables. Si desactiva el servicio ip6tables, recuerde también
desactivar la red IPv6. Nunca deje un dispositivo de red activo sin su correspondiente
cortafuegos.

Para forzar a iptables para que se inicie por defecto cuando el sistema arranque, use el siguiente
comando:

[root@myServer ~] # chkconfig --level 345 iptables on

Esto fuerza a iptables a que se inicie cuando el sistema arranque en los niveles de ejecución 3, 4 o
5.

2.8.3.1. Sintaxis de comando de IPTables


El siguiente comando iptables ilustra la sintaxis básica de comandos:

[root@myServer ~ ] # iptables -A <chain> -j <target>

La opción -A especifica que la regla se agregará a la <cadena>. Cada cadena se compone de una o
más reglas, por lo que se conoce también como un conjunto de reglas.

Las tres cadenas predefinidas son INPUT, OUTPUT, y FORWARD. Estas cadenas son permanentes y
no se pueden borrar. La cadena especifica el punto en el que el paquete es manipulado.

La opción -j <destino> especifica el destino de la regla; es decir, qué hacer si un paquete coincide
con la regla. Ejemplos de destinos predeterminados son ACCEPT, DROP, y REJECT.

Vaya a la página man de iptables para más información sobre las cadenas, opciones y destinos
disponibles.

2.8.3.2. Políticas básicas del cortafuego


El establecimiento de políticas básicas de cortafuego crea la base para construir reglas más
detalladas definidas por el usuario.

Cada cadena de iptables se compone de una política predeterminada, y cero o más reglas que
funcionan en conjunto con la política predeterminada para definir el conjunto de reglas del cortafuego.

131
Capítulo 2. Asegurando su Red

La política establecida por defecto para una cadena puede ser DROP o ACCEPT. Los
administradores de sistemas orientados por la seguridad implementan una política por defecto de
DROP, y solo permiten unos pocos paquetes específicos, luego de ser analizados uno por uno. Por
ejemplo, las siguientes políticas bloquean todos los paquetes que lleguen a o que partan desde una
puerta de enlace:

[root@myServer ~ ] # iptables -P INPUT DROP


[root@myServer ~ ] # iptables -P OUTPUT DROP

Es también algo recomendado que a cualquier paquete reenviado — tráfico de red que es enrutado
desde el cortafuegos hacia su nodo de destino — también le sea negada la entrada, para poder así
restringir las posibles exposiciones inadvertidas de clientes internos a Internet. Para hacerlo, utilice la
siguiente regla:

[root@myServer ~ ] # iptables -P FORWARD DROP

Cuando haya establecido las políticas por defecto para cada cadena, puede crear y guardar las reglas
siguientes para su red y requerimientos de seguridad particulares.

Las siguientes secciones describen cómo guardar las reglas iptables y delinea algunas de las reglas
que puede implementar cuando construya su cortafuego con iptables.

2.8.3.3. Guardando y restaurando las reglas de IPTables


Los cambios en iptables son transitorios; si el sistema es reiniciado o si el servicio de iptables
es reiniciado, las reglas son automáticamente eliminadas y reiniciadas. Para guardar las reglas de
modo que sean cargadas cuando el servicio iptables sea iniciado, utilice el siguiente comando:

[root@myServer ~ ] # service iptables save

Las reglas se guardan en el archivo /etc/sysconfig/iptables y se aplican cada vez que el


servicio o la computadora se reinician.

2.8.4. Filtrado común de IPTables


La prevención del acceso a la red de atacantes remotos es uno de los aspectos más importantes de
la seguridad de la red. La integridad de la LAN debe protegerse de los usuarios remotos maliciosos a
través del uso de las reglas estrictas de cortafuego.

Sin embargo, con una política por defecto de bloquear todos los paquetes entrantes, salientes y
reenviados, es imposible que los usuarios del cortafuego/puerta de enlace y los usuarios internos de
la LAN puedan comunicarse entre ellos, o con recursos externos.

Para permitir que los usuarios realicen funciones relacionadas con la red y de que puedan usar
aplicaciones de red, los administradores deben abrir ciertos puertos para la comunicación.

Por ejemplo, para permitir el acceso al puerto 80 en el cortafuego, agregar la siguiente regla:

[root@myServer ~ ] # iptables -A INPUT -p tcp -m tcp --dport 80 -j ACCEPT

Esto permite a los usuarios navegar sitios que se comunican usando el puerto estándar 80. Para
permitir el acceso a sitios web seguros (por ejemplo, https://www.ejemplo.com/), también necesita
proveer el acceso al puerto 443, como sigue:

132
Reglas FORWARD y NAT

[root@myServer ~ ] # iptables -A INPUT -p tcp -m tcp --dport 443 -j ACCEPT

Importante
Cuando se crea un conjunto de reglas de iptables, el orden es importante.

Si una regla especifica que cualquier paquete desde la subred 192.168.100.0/24


debe ignorarse, y esto es seguido por una regla que permite los paquetes de
192.168.100.13 (que está dentro de la subred ignorada), la segunda regla se ignora.

La regla para permitir los paquetes de 192.168.100.13 debe estar antes de la que
elimina los restantes de la subred.

Para insertar una regla en una ubicación específica en una cadena existente, use la
opción -I. Por ejemplo:

[root@myServer ~ ] # iptables -I INPUT 1 -i lo -p all -j ACCEPT

Esta regla es insertada como la primera regla en la cadena INPUT para permitir el
tráfico en el dispositivo loopback local.

Pueden suceder que en determinadas oportunidades se necesite un acceso remoto a la LAN. Los
servicios seguros, por ejemplo SSH, se pueden utilizar para encriptar la conexión remota a los
servicios de la LAN.

Administradores con recursos basados en PPP, o accesos de tipo dial-up (como bancos de módems,
o cuentas masivas de ISP), pueden ser utilizados para sortear con éxito las barreras del cortafuegos.
Debido a que son conexiones directas, las conexiones de módems se encuentran típicamente detrás
de un cortafuegos/puerta de enlace.

Sin embargo, pueden hacerse excepciones para los usuarios remotos con conexiones de banda
ancha. Usted puede configurar iptables para aceptar conexiones de clientes remotos SSH. Por
ejemplo, las siguientes reglas permiten acceso remoto SSH:

[root@myServer ~ ] # iptables -A INPUT -p tcp --dport 22 -j ACCEPT


[root@myServer ~ ] # iptables -A OUTPUT -p tcp --sport 22 -j ACCEPT

Estas reglas permiten ingreso y egreso para un sistema individual, como una PC directamente
conectada a Internet, o a un cortafuegos/puerta de enlace. Sin embrago, no permiten a los nodos
detrás de un cortafuegos/puerta de enlace que tengan acceso a estos servicios. Para permitir
acceso LAN a estos servicios, puede utilizar Network Address Translation (NAT) con reglas de filtro
iptables.

2.8.5. Reglas FORWARD y NAT


La mayoría de los ISPs proveen sólo un número limitado de direcciones IP disponibles públicamente
para sus clientes.

Los administradores deben, por lo tanto, encontrar formas alternativas de compartir el acceso a
los servicios de Internet, sin darle por ello una dirección IP pública a cada nodo de la LAN. Utilizar
direcciones IP privadas es la manera más común de permitirle a todos los nodos de una LAN que
tengan un acceso correcto, tanto interno como externo, a los servicios de red.

133
Capítulo 2. Asegurando su Red

Los enrutadores de borde (como los cortafuegos) pueden recibir transmisiones entrantes desde
Internet y enrutar los paquetes hacia el nodo LAN correspondiente. Al mismo tiempo, los cortafuegos/
puertas de enlace pueden enrutar peticiones salientes de un nodo de la LAN hacia el servicio de
Internet remoto.

Este reenvío de trafico de red puede algunas veces convertirse en algo peligroso, especialmente con
la disponibilidad de herramientas de crackeo modernas que pueden espiar direcciones IP internas y
hacer que el el equipo del atacante remoto actúe como un nodo de su LAN.

Para impedir esto, iptables provee políticas de ruteado y reenvío que se pueden implementar para
prevenir el uso anormal de los recursos de red.

La cadena FORWARD permite a un administrador controlar hacia dónde se pueden rutear los
paquetes dentro de la LAN. Por ejemplo, para permitir el reenvío para toda la LAN (asumiendo que
el cortafuego/puerta de enlace tiene asignado una dirección IP interna en eth1), use las siguientes
reglas:

[root@myServer ~ ] # iptables -A FORWARD -i eth1 -j ACCEPT


[root@myServer ~ ] # iptables -A FORWARD -o eth1 -j ACCEPT

Esta regla le da a los sistemas detrás del cortafuego/puerta de enlace el acceso a la red interna. La
puerta de enlace rutea los paquetes desde un nodo de la LAN a su nodo destino deseado, pasando
todos los paquetes a través del dispositivo eth1.

Nota
Por defecto, la política IPv4 en kernels de Fedora deshabilita el soporte para reenvío
de IP. Esto evita que máquinas que corran Fedora funcionen como un ruteador
dedicado. Para habilitar el reenvío de IP, use el siguiente comando:

[root@myServer ~ ] # sysctl -w net.ipv4.ip_forward=1

Este cambio en la configuración sólo es válido para la sesión actual; no persiste


luego de un reinicio de equipo o del servicio de red. Para poner el reenvío de IP
permanente, edite el archivo/etc/sysctl.conf como sigue:

Ubique la siguiente línea:

net.ipv4.ip_forward = 0

Y edítela para que se lea:

net.ipv4.ip_forward = 1

Use el siguiente comando para habilitar el cambio en el archivo sysctl.conf:

[root@myServer ~ ] # sysctl -p /etc/sysctl.conf

134
Reglas FORWARD y NAT

2.8.5.1. Postruteado y enmascarado de IP


La aceptación de paquetes reenviados a través de la IP interna del cortafuego le permite a los nodos
de la LAN comunicarse entre si; sin embargo, todavía no pueden comunicarse externamente con
Internet.

Para permitir que los nodos de una LAN con direcciones IP privadas puedan comunicarse con redes
públicas externas, configure su cortafuegos para que realice enmascaramiento de IP, que enmascara
las peticiones desde los nodos LAN con la dirección IP del cortafuegos del dispositivo externo (en
este caso, eth0):

[root@myServer ~ ] # iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

Esta regla utiliza la tabla de comparación de paquetes NAT (-t nat) y especifica la cadena
predefinida POSTROUTING para NAT (-A POSTROUTING) en el dispositivo externo del cortafuegos
(-o eth0).

POSTROUTING permite que los paquetes puedan ser alterados mientras están abandonando el
dispositivo externo del cortafuegos.

El destino -j MASQUERADE se especifica para enmascarar la dirección IP privada de un nodo con la


dirección IP externa del cortafuego/puerta de enlace.

2.8.5.2. Preruteo
Si usted posee un servidor en su red interna que quiere que esté disponible desde el exterior, puede
utilizar -j DNAT, objetivo de la cadena PREROUTING de NAT para especificar una IP de destino,
y un puerto donde los paquetes recibidos que pidan una conexión a su servicio interno, puedan ser
reenviados.

Por ejemplo, si quiere reenviar pedidos HTTP entrantes a su servidor HTTP Apache dedicado en
172.31.0.23, use el siguiente comando:

[root@myServer ~ ] # iptables -t nat -A PREROUTING -i eth0 -p tcp --dport 80 -j DNAT --to


172.31.0.23:80

Esta regla especifica que la tabla nat usa la cadena predefinida PREROUTING para enviar pedidos
HTTP entrantes exclusivamente al la dirección IP destino listado 172.31.0.23.

Nota
Si tiene una política predeterminada de DROP en su cadena FORWARD, debe
agregar una regla para reenviar todos los pedidos HTTP entrantes para que sea
posible el ruteo NAT destino. Para hacerlo, use el siguiente comando:

[root@myServer ~ ] # iptables -A FORWARD -i eth0 -p tcp --dport 80 -d


172.31.0.23 -j ACCEPT

Esta regla reenvía todos los pedidos HTTP entrantes desde el cortafuego al destino
pretendido; el Servidor HTTP APache detrás del cortafuego.

135
Capítulo 2. Asegurando su Red

2.8.5.3. IPTables y las ZDM


Puede crear reglas de iptables para enrutar tráfico a ciertos equipos, como por ejemplo un servidor
HTTP o FTP dedicado, en una zona desmilitarizada (DMZ, por las iniciales en inglés de DeMilitarized
Zone). Un DMZ es una subred local especial dedicada a proveer servicios en un transporte público,
como lo es Internet.

Por ejemplo, para establecer una regla para enrutar peticiones HTTP entrantes a un servidor
dedicado HTTP en 10-0-4-2 (fuera del rango 192.168.1.0/24 de la LAN), NAT utiliza la tabla
PREROUTING para reenviar los paquetes a la dirección apropiada:

[root@myServer ~ ] # iptables -t nat -A PREROUTING -i eth0 -p tcp --dport 80 -j DNAT --to-


destination 10.0.4.2:80

Con este comando, todas las conexiones HTTP al puerto 80 provenientes desde fuera de la LAN
son encaminadas al servidor HTTP en la red separada del resto de la red interna. Esta forma de
segmentación de red puede proveer seguridad permitiendo conexiones HTTP a máquinas en la red.

Si el servidor HTTP está configurado para aceptar conexiones seguras, entonces el puerto 443 debe
ser reenviado también.

2.8.6. Software malicioso y suplantación de direcciones IP


Reglas más elaboradas pueden ser creadas para que controlen el acceso a subredes específicas,
o incluso para nodos específicos, dentro de la LAN. Puede también restringir ciertas aplicaciones o
programas de carácter dudoso como troyanos, gusanos, y demás virus cliente/servidor, y evitar que
entren en contacto con sus servidores.

Por ejemplo, algunos troyanos examinan redes para ver los servicios en los puertos 31337 a 31340
(llamados los puertos elite en la terminología de craqueo).

Dado que no hay servicios legítimos que se comunican vía estos puertos no estándares, su bloqueo
puede disminuir efectivamente las posibilidades de que nodos infectados en su red se comuniquen
con sus servidores maestros remotos.

Las siguientes reglas eliminan todo el tráfico TCP que intenta usar el puerto 31337:

[root@myServer ~ ] # iptables -A OUTPUT -o eth0 -p tcp --dport 31337 --sport 31337 -j DROP
[root@myServer ~ ] # iptables -A FORWARD -o eth0 -p tcp --dport 31337 --sport 31337 -j DROP

También se puede bloquear conexiones salientes que intenten suplantar los rangos de direcciones IP
privadas para infiltrarse en su LAN.

Por ejemplo, si su red usa el rango 192.168.1.0/24, se puede diseñar una regla que instruya al
dispositivo de red del lado de Internet (por ejemplo, eth0) para que descarte cualquier paquete en ese
dispositivo con una dirección en el rango IP de su red local.

Dado que se recomienda rechazar paquetes reenviados como una política predeterminada, cualquier
otra dirección IP mentida al dispositivo del lado externo (eth0) se rechaza automáticamente.

[root@myServer ~ ] # iptables -A FORWARD -s 192.168.1.0/24 -i eth0 -j DROP

136
IPTables y el seguimiento de la conexión

Nota
Existe una distinción entre los destinos DROP y REJECT cuando se trabaja con reglas
agregadas.

El destino RECHAZAR niega acceso y regresa un error de conexión denegada a


los usuarios que intenten conectarse al servicio. El destino ABANDONAR, como su
nombre lo indica, abandona el paquete sin previo aviso.

Los administradores pueden usar su propia discreción cuando usen estos destinos.
Sin embargo, para evitar la confusión del usuario e intentos de continuar conectando,
el destino REJECT es recomendado.

2.8.7. IPTables y el seguimiento de la conexión


Puede inspeccionar y restringir conexiones a servicios basados en sus estados de conexión. Un
módulo dentro de iptables utiliza un método denominado rastreo de conexión para almacenar
datos acerca de las conexiones recibidas. Puede permitir o negar acceso basándose en los siguientes
estados de conexión:

• NEW — Un paquete que pide una nueva conexión, tal como un pedido HTTP.

• ESTABLISHED — Un paquete que es parte de una conexión existente.

• RELATED — Un paquete que está pidiendo una nueva conexión, pero que es parte de una
existente. Por ejemplo, FTP usa el puerto 21 para establecer una conexión, pero los datos se
transfieren en un puerto diferente (normalmente el puerto 20).

• INVALID — Un paquete que no es parte de ninguna conexión en la tabla de seguimiento de


conexiones.

Puede utilizar toda la funcionalidad del rastreo de conexión iptables con cualquier protocolo, aún
si él mismo se encuentra inactivo (como por ejemplo un protocolo UDP). EL siguiente ejemplo le
muestra una regla que utiliza rastreo de conexión para reenviar solamente los paquetes que están
asociados con una conexión establecida:

[root@myServer ~ ] # iptables -A FORWARD -m state --state ESTABLISHED,RELATED -j ACCEPT

2.8.8. IPv6
La introducción de la siguiente generación del Protocolo de Internet, llamado IPv6, expande más allá
de los límites de las direcciones de 32-bit de IPv4 (o IP). IPv6 soporta direcciones de 128-bit, y las
redes transportadoras que pueden soportar IPv6 son por lo tanto capaces de manejar un número más
grande de direcciones ruteables que el IPv4.

Fedora soporta reglas de cortafuego para IPv6 utilizando el subsistema Netfilter 6 y el comando
ip6tables. En Fedora 12, los servicios de IPv4 e IPv6 están habilitados por defecto.

La sintaxis del comando ip6tables es idéntica a iptables en todos los aspectos menos en que
soporta direcciones de 128-bit. Por ejemplo, use el siguiente comando para habilitar conexiones SSH
en un servidor de red para IPv6:

137
Capítulo 2. Asegurando su Red

[root@myServer ~ ] # ip6tables -A INPUT -i eth0 -p tcp -s 3ffe:ffff:100::1/128 --dport 22 -j


ACCEPT

Para más información acerca de redes IPv6, vaya a la Página de Información sobre IPv6 en http://
www.ipv6.org/.

2.8.9. Recursos adicionales


Hay varios aspectos de cortafuegos y del subsistema Netfilter de Linux que no pueden ser cubiertos
en este capítulo. Para más información consulte las referencias que ofrecemos a continuación.

2.8.9.1. Documentación instalada del cortafuego


• Diríjase a la Sección 2.9, “IPTables” para obtener información más detallada del comando
iptables, incluyendo definiciones de muchas opciones de comando.

• La página man de iptables contiene un resumen de las opciones.

2.8.9.2. Sitios web útiles de cortafuego


• http://www.netfilter.org/ — La página oficial del proyecto Netfilter e iptables.

• http://www.tldp.org/ — El Proyecto de Documentación de Linux contiene varias guías útiles sobre la


creación y administración de cortafuegos.

• http://www.iana.org/assignments/port-numbers — La lista oficial de puertos de servicios comunes y


registrados, según fueron asignados por IANA (Internet Assigned Numbers Authority).

2.8.9.3. Documentación relacionada


• Red Hat Linux Firewalls, por Bill McCarty; Red Hat Press — un manual de referencia completo para
poder levantar cortafuegos de red o de servidores, utilizando tecnología de código abierto para
filtrado de paquetes, como por ejemplo Netfilter o iptables. Los temas que se tratan van desde
el análisis de logs de cortafuegos, desarrollo de reglas de cortafuegos, y diferentes métodos de
personalización del cortafuegos utilizando numerosas herramientas gráficas.

• Linux Firewalls, por Robert Ziegler; New Riders Press — contiene gran cantidad de información
para poder levantar cortafuegos utilizando tanto ipchains de un kernel 2.2, como Netfilter o
iptables. También son tratados otros temas relacionados con la seguridad, como problemas con
el acceso remoto, o detección de intrusos en el sistema.

2.9. IPTables
Con Fedora están incluidas herramientas avanzadas para el filtrado de paquetes — el proceso dentro
de kernel que permite controlar a los paquetes de red mientras están ingresando a nuestro entorno,
mientras lo están recorriendo y cuando lo abandonan. Las versiones del kernel anteriores a la 2.4,
dependían de ipchains para el filtrado de paquetes, y utilizaban listas de reglas aplicadas a los
paquetes en cada paso del proceso de filtrado. El kernel 2.4 introdujo la utilización de iptables
(también llamado netfilter), que si bien es similar a ipchains, expande enormemente el rango y la
posibilidad de control disponible para filtrar los paquetes de red.

138
Filtrado de Paquete

El siguiente capítulo se dedica a los conceptos básicos del filtrado de paquetes, explica las diferentes
opciones disponibles con los comandos de iptables, y explica como las reglas de filtrado pueden
ser preservadas entre los reinicios del sistema.

Diríjase a la Sección 2.9.6, “Recursos adicionales” para obtener instrucciones sobre cómo construir
reglas de iptables y configurar un cortafuego basado en ellas.

Importante
El mecanismo de un cortafuegos establecido por defecto con un kernel 2.4 o superior
es iptables, pero iptables no puede ser utilizado si ipchains se encuentra en
ejecución. Si ipchains está presente en el momento del arranque, el kernel envía
un mensaje de error y no puede iniciar iptables.

La funcionalidad de ipchains no es afectada por estos errores.

2.9.1. Filtrado de Paquete


El kernel de Linux utiliza la herramienta Netfilter para filtrar los paquetes, permitiendo que alguno de
ellos sean recibidos por el sistema (o que pasen a través de él), y evitando que lo hagan otros. Esta
herramienta está predefinida en el kernel, y posee tres tablas o listas de reglas predeterminadas de la
forma siguiente:

• filter — La tabla predeterminada para el manejo de paquetes de red.

• nat — Se usa para alterar paquetes que crean una nueva conexión y para Network Address
Translation (NAT).

• mangle — Usada para tipos específicos de alteraciones de paquetes.

Cada tabla tiene un grupo de cadenas predefinidas, que corresponden a las acciones realizadas por
netfilter sobre el paquete.

Las cadenas predefinidas para la tabla filter son las siguientes:

• INPUT — Se aplica a paquetes de red que son destinados a este equipo.

• OUTPUT — Se aplica a paquetes de red generados localmente.

• FORWARD — Se aplica a paquetes de la red ruteados a través de este equipo.

Las cadenas predeterminadas para la tabla nat son las siguientes:

• PREROUTING — Altera los paquetes de la red cuando llegan.

• OUTPUT — Altera los paquetes de la red generados localmente antes de que se envíen.

• POSTROUTING — Altera los paquetes de la red antes de ser enviados.

Las cadenas predeterminadas para la tabla mangle son:

• INPUT — Altera los paquetes de red destinados a este equipo.

• OUTPUT — Altera los paquetes de la red generados localmente antes de que se envíen.

• FORWARD — Altera los paquetes de red ruteados a través de este equipo.

139
Capítulo 2. Asegurando su Red

• PREROUTING — Altera los paquetes que vienen de la red antes de ser ruteados.

• POSTROUTING — Altera los paquetes de la red antes de ser enviados.

Cada paquete de red recibido por, o enviado con un sistema Linux es sujeto de (o por) al menos
una tabla. Sin embargo, un paquete puede ser sujeto por varias reglas pertenecientes a cada tabla,
antes de poder emerger al final de la cadena. La estructura y el propósito de estas reglas pueden
variar, pero por lo general lo que buscan es un paquete yendo o viniendo desde una dirección IP
determinada (o conjunto de direcciones), cada vez que se utilice un protocolo y un servicio de red
determinados.

Nota
Por defecto, las reglas del cortafuego se graban en los archivos /etc/sysconfig/
iptables o /etc/sysconfig/ip6tables.

El servicio iptables se activa antes que cualquier otro servicio relacionado


con DNS, cuando el sistema Linux es iniciado. Esto significa que las reglas de
cortafuegos pueden sólo hacer referencia a direcciones IP numéricas (como por
ejemplo, 192.168.0.1). En este tipo de reglas, los nombres del dominio (por ejemplo,
host.example.com) producen errores.

Dejando de lado el destino que tengan, cuando los paquetes se correspondan con alguna regla
particular de alguna de estas tablas, un destino o acción es aplicada a ellos. Si la regla especifica
una acción ACCEPT para un paquete que se corresponde con ella, ese paquete se saltea el resto
de la regla y le es permitido continuar hacia su destino. Si una regla especifica una acción DROP, a
ese paquete se le niega acceso al sistema y nada es devuelto al equipo que lo envió. Si una regla
especifica la acción QUEUE, el paquete es colocado en un espacio de usuario. Si una regla especifica
la acción optativa REJECT, el paquete es abandonado, pero un paquete de error es a la vez enviado a
quien lo originó.

Cada cadena posee una política por defecto para las acciones de ACCEPT, DROP, REJECT, o QUEUE.
Si ninguna de estas reglas en la cadena se aplica al paquete, entonces el paquete es tratado de
acuerdo a la política establecida por defecto.

El comando iptables configura estas tablas, así como crea algunas nuevas si es necesario.

2.9.2. Opciones de la línea de comandos de IPTables


Las reglas para el filtrado de paquetes se crean usando el comando iptables. Los aspectos
siguientes del paquete son los más usados como criterios:

• Tipo de Paquete — Especifica el tipo de paquete que filtra el comando.

• Fuente/Destino del Paquete — Especifica qué paquete se filtra basado en el fuente/destino del
paquete.

• Destino — Especifica qué acción se toma sobre los paquetes que coinciden con el criterio de más
arriba.

Para obtener más información acerca de opciones específicas acerca de estos aspectos de
los paquetes, por favor vea la Sección 2.9.2.4, “Opciones de coincidencia de IPTables” y la
Sección 2.9.2.5, “Opciones de destino”.

140
Opciones de la línea de comandos de IPTables

Las opciones utilizadas con reglas específicas de iptables, para que puedan ser válidas, deben ser
agrupadas lógicamente, fundamentadas en el propósito y las condiciones de la regla en su totalidad.
En el recordatorio de esta sección se explican opciones comúnmente utilizadas para el comando
iptables.

2.9.2.1. Estructura de las opciones de comandos de IPTables


Muchos comandos iptables tienen la siguiente estructura:

iptables [-t <table-name>] <command> <chain-name> \ <parameter-1> <option-1> \ <parameter-


n> <option-n>

<table-name> — Especifica a qué tabla se aplica la regla. Si se omite, se usa la tabla filter.

<command> — Especifica la acción a realizar, tal como agregar o eliminar una regla.

<chain-name> — Especifica la cadena a editar, crear o borrar.

<parameter>-<option> pairs — Los parámetros y las opciones asociadas que especifican cómo
se procesa el paquete que coincide con una regla.

La longitud y complejidad de un comando iptables puede cambiar significativamente, basado en su


propósito.

Por ejemplo, un comando para eliminar una regla de una cadena puede ser muy corto:

iptables -D <chain-name> <line-number>

En contraste, un comando que añada una regla que filtre los paquetes provenientes de una subred
determinada, utilizando una variedad de parámetros y opciones específicas, podría ser bastante
extenso. Cuando construya comandos iptables, es importante recordar que algunos parámetros
y opciones requieren de otros parámetros y de otras opciones para poder constituir una regla válida.
Esto puede producir un efecto cascada, con los futuros parámetros pidiendo otros nuevos. La regla no
será válida hasta que no se satisfagan cada parámetro y cada opción que requiera otro conjunto de
opciones y parámetros.

Con iptables -h se puede ver una lista comprensiva de la estructura de los comandos de
iptables.

2.9.2.2. Opciones de comandos


Las opciones de comando dan instrucciones a iptables para que realice una acción específica.
Solo una opción de comando es permitida para cada comando iptables. Con la excepción del
comando help, todos los demás deben ser escritos con caracteres mayúsculos.

Los comandos de iptables son los siguientes:

• -A — Agregan una regla al final de la cadena especificada. A diferencia de la opción -I descripta


más abajo, No toma un entero como argumento. Siempre agrega la regla al final de la cadena
especificada.

• -C — Verifica una regla determinada antes de añadirla a la cadena especificada por el usuario.
Este comando puede ayudarle a construir reglas complejas de iptables al solicitarle parámetros y
opciones adicionales.

141
Capítulo 2. Asegurando su Red

• -D <integer> | <rule> — Elimina una regla de una cadena determinada por su número
(como por ejemplo 5 para la quinta regla de una cadena), o por su especificación. La especificación
de la regla debe coincidir exactamente con la regla existente.

• -E — Renombra una cadena definida por el usuario. Una cadena definida por el usuario es
cualquier cadena que no sea una de las ya existentes, establecidas por defecto. (Vea más abajo la
opción -N para obtener información acerca de como crear cadenas definidas por el usuario). Este
es un cambio de tipo estético y no afecta la estructura de la tabla.

Nota
Si intenta renombrar alguna de las cadenas predeterminadas, el sistema informará
un error de Coincidencia no encontrada. No puede renombrar las cadenas
predeterminadas.

• -F — Limpia la cadena seleccionada, lo que efectivamente borra cada regla en la cadena. Si no se


especifica una cadena, limpia todas las reglas de cada cadena.

• -h — Provee una lista de estructuras de comando, así como un resumen rápido de los parámetros
y opciones de los comandos.

• -I [<integer>] — Inserta una regla en la cadena en el punto especificado por el argumento


entero dado por el usuario. Si no se especifica un argumento, se inserta al comienzo de la cadena.

Importante
Como se mencionó arriba, el orden de las reglas en una cadena determina cuáles
reglas se aplican a qué paquetes. Esto es importante para recordar cuando se
agreguen reglas que usen la opción -A o -I.

Esto es especialmente importante cuando se agregan reglas utilizando la opción


-I con un argumento entero. Si especifica un número existente cuando agregue
una regla a una cadena, iptables añade la nueva regla antes que (o sobre) la
regla existente.

• -L — Muestra todas las reglas en la cadena especificada luego del comando. Para listar todas las
reglas de todas las cadenas en la tabla de filtro establecida por defecto, no especifique ni una
cadena ni una tabla. De lo contrario, la siguiente sintaxis debería ser utilizada para listar las reglas
de una cadena determinada, en una tabla determinada:

iptables -L <chain-name> -t <table-name>

Las opciones adicionales para la opción -L del comando, que proveen el número de regla y
permiten descripciones de reglas más detalladas se describen en la Sección 2.9.2.6, “Opciones de
listado”.

• -N — Crea una nueva cadena con un nombre dado por el usuario. El nombre debe ser único, sino
se mostrará un mensaje de error.

142
Opciones de la línea de comandos de IPTables

• -P — Pone la política predeterminada para la cadena especificada, para que cuando los paquetes
atraviesen toda la cadena sin encontrar una regla con la que coincidan, se los envía al destino
especificado, sea ACCEPT o DROP.

• -R — Reemplaza una regla en la cadena especificada. El número de regla debe especificarse


después del nombre de la cadena. La primera regla en una cadena corresponde a la regla número
uno.

• -X — Borra una cadena definida por el usuario. No se puede borrar una cadena predefinida.

• -Z — Pone los contadores de bytes y de paquetes a 0 en todas las cadenas de una tabla.

2.9.2.3. Opciones de parámetros de IPTables


Ciertos comandos de iptables, incluyen aquellos para agregar, adjuntar, borrar, insertar o borrar
reglas dentro de una cadena particular, que requieren varios parámetros para construir una regla de
filtrado de paquetes.

• -c — Reinicia los contadores de una regla particular. Este parámetro acepta las opciones PKTS y
BYTES para especificar qué contadores resetear.

• -d — Pone el destino por nombre, dirección IP o red para un paquete que coincide con la regla.
Cuando se especifique una red, los siguientes formatos de dirección de IP /máscara de red son
soportados:

• N.N.N.N/M.M.M.M — Donde N.N.N.N es el rango de direcciones IP y M.M.M.M es la máscara


de red.

• N.N.N.N/M — Donde N.N.N.N es el rango de direcciones IP y M son los bits de máscara.

• -f — Aplica esta regla sólo a paquetes fragmentados.

Puede usar el signo de exclamación (!) después de este parámetro para especificar que solamente
se aceptan paquetes desfragmentados.

Nota
La distinción entre paquetes fragmentados y defragmentados es deseable, sin
importar que los paquetes fragmentados sean una parte estándar del protocolo IP.

Originalmente diseñada para permitir que los paquetes IP viajen a través de redes
con marcos de diferentes tamaños, hoy en día la fragmentación es comúnmente
utilizada para generar ataques DoS, mediante paquetes mal formados. En este
aspecto, vale la pena saber que IPv6 no permita en absoluto la fragmentación.

• -i — Establece la interfaz de red entrante, como ser por ejemplo, eth0 o ppp0. Con iptables,
este parámetro opcional solo puede ser utilizado con las cadenas de INPUT y FORWARD, cuando
sean utilizadas con la tabla de filter, y la cadena PREROUTING con las tablas nat y mangle.

Este parámetro también da soporte a todas las siguientes opciones especiales:

• El signo de exclamación (!) — Revierte la directiva, significando que las interfaces especificadas
de excluyen de esta regla.

143
Capítulo 2. Asegurando su Red

• Signo de suma (+) — Un carácter comodín utilizado para relacionar a todas las interfaces que se
correspondan con una cadena determinada. Por ejemplo, el parámetro -i eth+ aplicaría esta
regla a cualquier interfaz Ethernet, pero excluiría el resto de las interfases, como por ejemplo,
ppp0.

Si el parámetro -i se usa pero no se especifica una interfaz, entonces todas las interfases son
afectadas por esta regla.

• -j — Salta al destino especificado si un paquete coincide con una regla en particular.

Los destinos estándares son ACCEPT, DROP, QUEUE, y RETURN.

Existen también a disposición algunas opciones extendidas, a través de módulos cargados por
defecto con el paquete RPM iptables de Fedora. Algunas de las acciones válidas de ese módulo
son LOG, MARK, y REJECT, entre otras. Para obtener mayor información acerca de estas y de otras
acciones, consulte la página man de iptables.

Esta opción también puede usarse para dirigir el paquete coincidente a una regla particular en
una cadena del usuario fuera de la cadena actual, para que se le puedan aplicar otras reglas al
paquete.

Si no se especifica un destino, el paquete se mueve a la regla siguiente sin hacer nada. El contador
de esta regla, sin embargo, se incrementa por uno.

• -o — Establece la interfaz de red saliente para una regla. Esta opción sólo es válida para las
cadenas OUTPUT y FORWARD en la tabla filter, y para la cadena POSTROUTING en las
tablas nat y mangle tables. Este parámetro acepta las mismas opciones que el parámetro para la
interfaz de red entrante (-i).

• -p <protocol> — Establece el protocolo IP afectado por la regla. Este puede ser icmp, tcp,
udp, o all, o también puede ser un valor numérico, representando alguno de estos protocolos, o
alguno diferente. También puede utilizar cualquiera de los protocolos listados en el archivo /etc/
protocols.

El protocolo "all" significa que esta regla se aplica a todos los protocolos soportados. Si no se lista
ningún protocolo con esta regla, por defecto se asume "all".

• -s — Pone el fuente de un paquete particular usando la misma sintaxis del parámetro de destino (-
d).

2.9.2.4. Opciones de coincidencia de IPTables


Los diferentes protocolos de red proveen opciones especializadas de correspondencia, que pueden
ser configuradas para relacionar un paquete determinado, que utilice el protocolo en cuestión. Sin
embargo, el protocolo debe ser previamente especificado en el comando iptables. Por ejemplo, -p
<protocol-name> habilita opciones para el protocolo específico. Fíjese que incluso puede utilizar el
ID del protocolo, en lugar del nombre del protocolo. Observe los siguientes ejemplos, cada uno de los
cuales tiene el mismo efecto:

iptables -A INPUT -p icmp --icmp-type any -j ACCEPT

iptables -A INPUT -p 5813 --icmp-type any -j ACCEPT

144
Opciones de la línea de comandos de IPTables

Las definiciones de los servicios son provistas en el archivo /etc/services. Para una mejor
lectura, es recomendable que se utilice el nombre de los servicios, en lugar de los números de
puertos.

Advertencia
Asegure el archivo /etc/services de manera de poder evitar que sea editado por
usuarios no autorizados. Si este archivo es editable, los crackers pueden utilizarlo
para habilitar puertos en su equipo que de otra manera permanecerían cerrados.
Para segurar este archivo, ingrese los siguiente comandos siendo usuario root:

[root@myServer ~]# chown root.root /etc/services


[root@myServer ~]# chmod 0644 /etc/services
[root@myServer ~]# chattr +i /etc/services

Esto previene que se pueda renombrar, borrar o crear enlaces al archivo.

2.9.2.4.1. Protocolo TCP


Estas opciones de comparación están disponibles para el protocolo TCP (-p tcp):

• --dport — Pone el puerto destino del paquete.

Para configurar esta opción, use un nombre de servicio de red (tal como www o smtp); o un número
de puerto; o un rango de números de puerto.

Para especificar un rango de números de puerto, separe los dos números con dos puntos (:). Por
ejemplo: -p tcp --dport 3000:3200. El rango más grande aceptable es 0:65535.

Use el signo de exclamación (!) después de la opción --dport para que seleccione todos los
paquetes que no usen ese servicio de red o puerto.

Para navegar por los nombres o alias de servicios de red y sus números de puerto, vea el archivo /
etc/services.

La opción --destination-port es sinónimo de --dport.

• --sport — Pone el puerto de origen del paquete y usa las mismas opciones que --dport. La
opción --source-port es sinónimo de --sport.

• --syn — Se aplica a todos los paquetes TCP diseñados para iniciar una comunicación,
comúnmente llamados paquetes SYN. Cualquier paquete que lleve datos no se toca.

Use un signo de exclamación (!) después de --syn para que seleccione los paquetes no-SYN.

• --tcp-flags <tested flag list> <set flag list> — Permite paquetes TCP que
tengan ciertos bits (banderas) específicos puestos, para que coincidan con la regla.

La opción de correspondencia --tcp-flags acepta dos parámetros. El primero es la máscara;


una lista separada por comas de las marcas a ser examinadas en el paquete. El segundo
parámetro es una lista separada por comas de las marcas que deben ser definidas en la regla con
la que se pretende concordar.

145
Capítulo 2. Asegurando su Red

Las posibles banderas son:

• ACK

• FIN

• PSH

• RST

• SYN

• URG

• ALL

• NONE

Por ejemplo, una regla iptables que contenga las siguientes especificaciones solo se
corresponderá con paquetes TCP que tengan definida la marca SYN, y que no tengan definidas las
marcas ACK ni FIN:

--tcp-flags ACK,FIN,SYN SYN

Use el signo de exclamación (!) después de --tcp-flags para revertir el efecto de coincidencia
de la opción.

• --tcp-option — Intenta corresponderse con opciones específicas de TCP que puedan


establecerse dentro de un paquete determinado. Esta opción de correspondencia puede también
revertirse con el signo de exclamación (!).

2.9.2.4.2. Protocolo UDP


Estas opciones de coincidencias están disponibles para el protocolo UDP (-p udp):

• --dport — Especifica el puerto de destino del paquete UDP, utilizando el nombre del servicio,
el número de puerto, o rango de números de puerto. La opción de correspondencia --
destination-port es equivalente.

• --sport — Especifica el puerto de origen del paquete UDP, utilizando el nombre del servicio, el
número de puerto, o rango de números de puertos. La opción de correspondencia --source-
port es equivalente.

Con las opciones --dport y --sport, para especificar un rango válido de puertos, separe ambos
números del rango con dos puntos (:). Por ejemplo: -p tcp --dport 3000:3200. El rango válido
más extenso que puede aceptarse es 0:65535.

2.9.2.4.3. Protocolo ICMP


Las siguientes opciones de coincidencias están disponibles en el Protocolo de Mensajes de Control
de Internet (ICMP) (-p icmp):

• --icmp-type — Establece el nombre y número del tipo de ICMP a corresponderse con la regla.
Puede obtenerse una lista de nombres ICMP válidos al ingresar el comando iptables -p icmp
-h.

146
Opciones de la línea de comandos de IPTables

2.9.2.4.4. Módulos adicionales para opciones de coincidencia


Opciones de coincidencias adicionales están disponibles a través de los módulos cargados por el
comando iptables.

Para utilizar un módulo de comparación, cargue el módulo por su nombre con -m <module-name>,
donde <module-name> es el nombre del módulo.

Por defecto hay disponibles muchos módulos. También puede crear módulos para proveer
funcionalidad adicional.

La siguiente es una lista parcial de los módulos más comúnmente usados:

• Módulo limit — Pone límites sobre cuántos paquetes se toman para una regla particular.

Cuando se usa junto con el destino LOG, el módulo limit puede prevenir una inundación de
paquetes coincidentes que pudieran sobrecargar al sistema de log con mensajes repetitivos o
acabar los recursos del sistema.

Diríjase a la Sección 2.9.2.5, “Opciones de destino” para obtener mayor información sobre LOG.

El módulo limit habilita las siguientes opciones:

• --limit — Establece la cantidad máxima posible de correspondencias en un período de tiempo


determinado, especificado como un par <value>/<period>. Por ejemplo, utilizar --limit 5/
hour permite 5 correspondencias con la regla a cada hora.

Los períodos se pueden especificar en segundos, minutos, horas o días.

Si no se utiliza un número o modificador de tiempo, se asume el valor predeterminado de 3/


hora.

• --limit-burst — Pone un límite en el número de paquetes que pueden coincidir con la regla
en cada momento.

Esta opción se especifica como un entero y no se debe usar junto con la opción --limit.

Si no se especifica un valor, el valor predeterminado cinco (5) es asumido.

• Módulo state — Habilita el chequeo del estado.

El módulo state habilita las siguientes opciones:

• --state — chequea a un paquete con los siguientes estados de conexión:

• ESTABLISHED — El paquete está asociado a otros paquetes en una conexión establecida.


Necesita aceptar este estado si quiere mantener una conexión entre un cliente y un servidor.

• INVALID — El paquete es chequeado no está asociado a una conexión conocida.

• NEW — El paquete chequeado es para crear una conexión nueva o es parte de una conexión
de doble vía que no fue vista previamente. Necesita aceptar este estado si quiere permitir
conexiones nuevas a un servicio.

• RELATED — El paquete coincidente está iniciando una conexión relacionada de alguna manera
a otra existente. Un ejemplo de esto es FTP, que usa una conexión para el control del tráfico
(puerto 21) y una conexión separada para la transferencia de datos (puerto 20).

147
Capítulo 2. Asegurando su Red

Estos estados de conexión pueden ser utilizados combinados con otros, si se los separa con
comas, como por ejemplo -m state --state INVALID,NEW.

• Módulo mac — Habilita el chequeo de la dirección MAC de hardware.

El módulo mac habilita la siguiente opción:

• --mac-source — Hace corresponder una dirección MAC de la tarjeta de interfaz de red que
haya enviado el paquete. Para excluir una dirección MAC de la regla, coloque un signo de
admiración (!) luego de la opción de correspondencia --mac-source.

Vea en la página man de iptables para más opciones de comparación disponibles a través de
módulos.

2.9.2.5. Opciones de destino


Cuando un paquete concuerde con una regla en particular, la regla puede dirigir el paquete hacia un
número de destinos diferentes determinados por la acción apropiada. Cada cadena tiene un objetivo
establecido por defecto, que será utilizado si ninguna de las reglas en esa cadena concuerdan con un
paquete, o si ninguna de las reglas que concuerdan con el paquete especifica un destino.

Los siguientes son los destinos estándares:

• <user-defined-chain> — Una cadena definida por el usuario dentro de la tabla. Los nombres
de las cadenas definidas por el usuario deben ser únicos. Esta acción pasa el paquete a la cadena
especificada.

• ACCEPT — Permite pasar al paquete a su destino o a otra cadena.

• DROP — Descarta el paquete sin responder. El sistema que mandó el paquete no es notificado de la
falla.

• QUEUE — El paquete es encolado para su manejo por una aplicación en el espacio del usuario.

• RETURN — Detiene el chequeo del paquete contra las reglas restantes de la cadena. Si el paquete
con un destino RETURN coincide con una regla en una cadena llamada por otra cadena, el paquete
es devuelto a la primera cadena y continúa el chequeo donde quedó antes de saltar. Si la regla
RETURN se usa en una cadena predefinida y el paquete no se puede mover a una cadena previa,
se usa el destino predeterminado para la cadena.

Además, existen a disposición diversos complementos que permiten especificar otros destinos. Estos
complementos son llamados módulos de destino o módulos de opción de concordancia y muchos
de ellos sólo se aplican a tablas y situaciones específicas. Para obtener más información acerca de
los módulos de opción de concordancia, diríjase a la Sección 2.9.2.4.4, “Módulos adicionales para
opciones de coincidencia”.

Existen numerosos módulos de destino extendidos, muchos de los cuales solo se aplican a ciertas
tablas o situaciones. Algunos de los más populares incluidos por defecto en Fedora son:

• LOG — Registra todos los paquetes que se correspondan con esta regla. Debido a que los
paquetes son registrados por el kernel, el archivo /etc/syslog.conf determina donde son
escritas estas entradas de registro. Por defecto, son ubicadas en el archivo /var/log/messages.

148
Opciones de la línea de comandos de IPTables

Hay opciones adicionales que se pueden usar después del destino LOG para especificar la forma en
que se realiza el log:

• --log-level — Pone la prioridad de registrado del evento. Vaya a la página man de


syslog.conf para una lista de los niveles de prioridad.

• --log-ip-options — Registra todas las opciones puestas en la cabecera de un paquete IP.

• --log-prefix — Pone una cadena de hasta 29 caracteres antes de la línea de registro cuando
se escribe. Esto es útil cuando se escribe filtros syslog para usar junto con el registrado de
paquetes.

Nota
Debido a una cuestión con esta opción, se debe agregar un espacio al final del
valor log-prefix.

• --log-tcp-options — Registra todas las opciones puestas en la cabecera de un paquete


TCP.

• --log-tcp-sequence — Escribe el número de secuencia de un paquete en el log.

• REJECT — Envía un paquete de error como respuesta al sistema remoto y descarta el paquete.

El destino REJECT acepta --reject-with <type> (donde <type> es el tipo de rechazo)


permitiendo que junto con el paquete erróneo sea devuelta información más detallada. El mensaje
port-unreachable es el tipo de error establecido por defecto que será dado si no hay otra
opción utilizándose. Vea la página man de iptables para una lista completa de opciones de
<type>.

Otras extensiones de acción, incluidas aquellas que son útiles para el enmascaramiento de IP
utilizando la tabla nat, o mediante alteración de paquete utilizando la tabla mangle, pueden ser
encontradas en la página man de iptables.

2.9.2.6. Opciones de listado


La lista de comandos establecida por defecto, iptables -L [<chain-name>], ofrece un resumen
básico de las cadenas actuales de tablas de filtrado predeterminadas. Opciones adicionales brindan
más información:

• -v — Muestra información adicional, como por ejemplo la cantidad de paquetes y los bytes que ha
procesado cada cadena, la cantidad de paquetes y los bytes que se ha correspondido con cada
regla, y qué interfases se aplican a una regla determinada.

• -x — Expande los números a sus valores exactos. En un sistema activo, el número de los
paquetes y la cantidad de bytes procesados por una cadena o regla determinada puede estar
abreviado en Kilobytes, Megabytes (Megabytes) o Gigabytes. Esta opción obliga a ser
mostrado el número entero.

• -n — Muestra las direcciones IP y los números de puerto en su formato numérico, en vez del
formato predeterminado de nombre de equipo y nombre de servicio.

149
Capítulo 2. Asegurando su Red

• --line-numbers — Muestra las reglas en cada cadena junto a su orden numérico en dicha
cadena. Esta opción es útil si se intenta eliminar una regla específica de una cadena, o para saber
dónde insertar una regla dentro de una cadena.

• -t <table-name> — Especifica el nombre de una tabla. Si se omite, se usa filter como nombre
de tabla.

2.9.3. Guardando las reglas de IPTalbes


Las reglas creadas con el comando iptables son almacenadas en la memoria. Si el sistema es
reiniciado antes de guardar el conjunto de reglas de iptables, estas reglas se perderán. Para que
las reglas de netfilter sigan vigentes luego de reiniciar el sistema, necesitan ser guardadas. Para
salvar reglas de netfilter, ingrese el siguiente comando como usuario root:

/sbin/service iptables save

Esto ejecuta el programa init de iptables, que a su vez ejecuta el programa /sbin/iptables-
save y escribe la configuración actual de iptables a /etc/sysconfig/iptables. El archivo
existente /etc/sysconfig/iptables es guardado como /etc/sysconfig/iptables.save.

La próxima vez que el sistema se reinicie, el programa init de iptables aplica nuevamente las
reglas guardadas en /etc/sysconfig/iptables utilizando el comando /sbin/iptables-
restore.

Si bien siempre es una buena idea probar una nueva regla iptables antes de incluirla en el archivo
/etc/sysconfig/iptables, es posible copiar reglas iptables a este archivo, desde la misma
versión de un sistema diferente del mismo archivo. Esto permite una rápida distribución de los
conjuntos de reglas iptables en diversas máquinas.

También puede grabar las reglas de iptables a un archivo separado para distribuir, respaldar u otros
propósitos. Para guardar sus reglas de iptables, ingrese el siguiente comando como root:

[root@myServer ~]# iptables-save > <filename>where <filename> es un nombre definido por el


usuario para el conjunto de reglas.

Importante
Si va a distribuir el archivo /etc/sysconfig/iptables a otras máquinas, debe
teclear /sbin/service iptables restart para que las nuevas reglas tengan
efecto.

Nota
Fíjese la diferencia entre el comando iptables (/sbin/iptables), que es
utilizado para manipular las tablas y cadenas que constituyen las funcionalidades de
iptables, y el servicio iptables (/sbin/iptables service), que es utilizado
para activar y desactivar el servicio de iptables en sí.

2.9.4. Programas de control de IPTables


Hay dos métodos básicos de controlar iptables en Fedora:

150
Programas de control de IPTables

• Firewall Configuration Tool (system-config-securitylevel) — Una interfaz gráfica para


crear, activar y grabar las reglas básicas del cortafuego. Consulte la Sección 2.8.2, “Configuración
básica de un cortafuego” para obtener mayor información.

• /sbin/service iptables <option> — Es utilizado para manipular varias funciones de


iptables, mediante un script de inicio. Las siguientes opciones están disponibles:

• start — Si el cortafuego está configurado (es decir, /etc/sysconfig/iptables existe), se


detienen todos los iptables completamente y se los vuelve a iniciar con el comando /sbin/
iptables-restore. Esta opción funciona solamente si el módulo de kernel ipchains no es
cargado. Para chequear si este módulo está cargado, teclee el siguiente comando como root:

[root@MyServer ~]# lsmod | grep ipchains

Si este comando no muestra salida, significa que no está cargado. Si es necesario, use el
comando /sbin/rmmod para eliminar el módulo.

• stop — Si el cortafuego está ejecutándose, las reglas del cortafuego en la memoria son
limpiadas y todos los módulos y ayudantes de iptables son descargados.

Si la directiva IPTABLES_SAVE_ON_STOP del archivo de configuración /etc/sysconfig/


iptables-config es alterada de su valor original a yes, las reglas actuales serán guardadas
en /etc/sysconfig/iptables y todas las reglas existentes serán trasladadas a /etc/
sysconfig/iptables.save.

Diríjase a la Sección 2.9.4.1, “Archivo de Configuración de los Scripts de Control de IPTables”


para obtener mayor información sobre el archivo iptables-config.

• restart — Si un cortafuegos está ejecutándose, sus reglas en la memoria serán eliminadas,


y el cortafuegos es iniciado nuevamente si es que está configurado en /etc/sysconfig/
iptables. Esta opción solo funciona si el módulo ipchains del kernel no está cargado.

Si la directiva IPTABLES_SAVE_ON_RESTART en el archivo de configuración /etc/


sysconfig/iptables-config es alterada de su valor original a yes, las reglas actuales
serán guardadas en /etc/sysconfig/iptables y cualquier otra regla existente será
trasladada a /etc/sysconfig/iptables.save.

Diríjase a la Sección 2.9.4.1, “Archivo de Configuración de los Scripts de Control de IPTables”


para obtener mayor información sobre el archivo iptables-config.

• status — Muestra el estado del cortafuego y lista todas las reglas activas

La configuración establecida por defecto para esta opción muestra direcciones IP en cada
regla. Para mostrar dominios y nombres de equipos, edite el archivo /etc/sysconfig/
iptables-config y modifique el valor de IPTABLES_STATUS_NUMERIC a no. Para obtener
más información acerca del archivo iptables-config, consulte la Sección 2.9.4.1, “Archivo de
Configuración de los Scripts de Control de IPTables” .

• panic — Limpia todas las reglas del cortafuego. Se configura como política para todas las tablas
a DROP.

Esta opción puede ser útil si se sabe que un servidor está comprometido. En vez de
desconectarlo físicamente de la red o apagarlo, puede usar esta opción para detener todo tráfico
posterior, pero dejando a la computadora lista para un análisis forense.

151
Capítulo 2. Asegurando su Red

• save — Guarda las reglas del cortafuego en /etc/sysconfig/iptables utilizando


iptables-save. Vea en la Sección 2.9.3, “Guardando las reglas de IPTalbes” más información.

Nota
Para utilizar los mismos comandos de initscript para controlar a netfilter para IPv6,
sustituya ip6tables por iptables en los comandos /sbin/service listados
en esta sección. Para obtener mayor información acerca de IPv6 o netfilter, vea
Sección 2.9.5, “IPTables e IPv6”.

2.9.4.1. Archivo de Configuración de los Scripts de Control de IPTables


El comportamiento de los scripts de inicio de iptables se controlan por el archivo de configuración /
etc/sysconfig/iptables-config. La siguiente es una lista de las directivas contenidas en este
archivo:

• IPTABLES_MODULES — Especifica una lista separada por comas de los módulos iptables
adicionales a cargar cuando se active el cortafuego. Estos pueden incluir el rastreo de conexión y
ayudantes NAT.

• IPTABLES_MODULES_UNLOAD — Descarga los módulos al reiniciar y detener. Esta directiva acepta


los siguientes valores:

• yes — El valor por defecto. Esta opción debe ser puesta para conseguir un estado correcto de
un reinicio o detenida de un cortafuego.

• no — Esta opción debe ser puesta sólo si hay problemas al descargar los módulos de netfilter.

• IPTABLES_SAVE_ON_STOP — Guarda las reglas actuales en /etc/sysconfig/iptables


cuando el cortafuego es detenido. Esta directiva acepta los siguientes valores:

• yes — Guarda las reglas existentes en /etc/sysconfig/iptables cuando se detiene el


cortafuego, moviendo la versión previa al archivo /etc/sysconfig/iptables.save.

• no — El valor por defecto. No guarda las reglas existentes cuando el cortafuego es detenido.

• IPTABLES_SAVE_ON_RESTART — Guarda las reglas actuales del cortafuego cuando es reiniciado.


Esta directiva acepta los siguientes valores:

• yes — Guarda las reglas existentes en /etc/sysconfig/iptables cuando el cortafuego es


reiniciado, moviendo la versión previa al archivo /etc/sysconfig/iptables.save.

• no — El valor predeterminado. No guarda las reglas existentes cuando se reinicia el cortafuego.

• IPTABLES_SAVE_COUNTER — Guarda y restaura todos los contadores de paquetes y de bytes en


todas las cadenas y reglas. Esta directiva acepta los siguientes valores:

• yes — Guarda los valores de los contadores.

• no — El valor predeterminado. No guarda los valores de los contadores.

• IPTABLES_STATUS_NUMERIC — Muestra las direcciones IP en formato numérico en vez de


dominios y nombres de equipo. Esta directiva acepta los siguientes valores:

152
IPTables e IPv6

• yes — El valor predeterminado. Solo devuelve la dirección IP dentro de una salida de estado.

• no — Devuelve el dominio o nombres de equipos en una salida de estado.

2.9.5. IPTables e IPv6


Si se instala el paquete iptables-ipv6, netfilter en Fedora puede filtrar la siguiente generación del
protocolo de Internet IPv6. El comando usado para manipular el netfilter de IPv6 es ip6tables.

La mayoría de las directivas para este comando son idénticas a aquellas utilizadas para iptables,
excepto que la tabla nat no es aún soportada. Esto significa que aún no es posible realizar tareas
de traslados sobre direcciones de redes IPv6, como ser, por ejemplo, enmascaramiento y reenvío de
puertos.

Las reglas de ip6tables se guardan en el archivo /etc/sysconfig/ip6tables. Las reglas


previas guardadas antes por los scripts de inicio de ip6tables se guardan en el archivo /etc/
sysconfig/ip6tables.save.

Las opciones de configuración para el programa init ip6tables son almacenadas en /etc/
sysconfig/ip6tables-config, y los nombres para cada directiva varían significativamente de los
correspondientes en iptables.

Por ejemplo, la directiva IPTABLES_MODULES de iptables-config: el equivalente en el archivo


ip6tables-config es IP6TABLES_MODULES.

2.9.6. Recursos adicionales


Consulte las siguientes referencias para obtener información adicional sobre el filtrado de paquetes
con iptables.

• Sección 2.8, “Cortafuegos” — Contiene un capítulo acerca de la función de los cortafuegos dentro
de una estrategia de seguridad general, así como las estrategias para construir las reglas del
mismo.

2.9.6.1. Documentación instalada de IPTables


• man iptables — Contiene la descripción de iptables así como una lista comprensiva de los
destinos, opciones y extensiones de comparación.

2.9.6.2. Sitios web útiles sobre IPTables


• http://www.netfilter.org/ — El hogar del proyecto netfilter/iptables. Contiene información ordenada
acerca de iptables, incluyendo un FAQ que describe problemas específicos, y varias guías
útiles realizadas por Rusty Russell, el encargado del cortafuegos para IP de Linux. Los diferentes
tutoriales del sitio abarcan diferentes temas, como ser por ejemplo, una descripción de los
conceptos básicos de trabajo en redes, filtros de paquetes del kernel y configuraciones NAT.

• http://www.linuxnewbie.org/nhf/Security/IPtables_Basics.html — Una introducción acerca de cómo


los paquetes se trasladan dentro del kernel de Linux, más una introducción para saber cómo
construir comandos básicos de iptables.

153
154
Cifrado
Existen dos clases principales de datos que deben ser protegidos: datos en reposo y datos en
movimiento. Estas clases de datos son protegidas en forma similar utilizando tecnología similar, pero
la forma en que se implementa esta protección puede ser completamente diferente en un caso y en
otro. Por sí solo, ningún modo de protección puede prevenir nuestro sistema de todos los posibles
métodos en que puede llegar a ser dañado, ya que la misma información puede estar en descanso y
en movimiento en diferentes lugares y al mismo tiempo.

3.1. Datos en reposo


Los datos en reposo son los datos que se encuentran almacenados en un disco duro, cinta, CD,
DVD, o cualquier otro medio. La amenaza principal a este tipo de información es la posibilidad de
ser físicamente robada. Laptops en los aeropuertos, CDs enviados a través del correo postal, y
cintas de respaldo que se dejan en los lugares equivocados, son todos ejemplos en los que los datos
contenidos pueden ser accedidos mediante el robo. Si esos datos estuvieran cifrados en el dispositivo
que los contiene, entonces no tendría que preocuparse demasiado acerca de la posibilidad de que
alguien más acceda a ellos.

3.2. Cifrado completo del disco


Cifrar todo un disco, o toda una partición, es una de las mejores maneras de proteger sus datos.
De esta manera no solo se protege a cada uno de los archivos, sino que también se protege el
almacenamiento temporal, que puede llegar a contener parte de estos archivos. Al cifrar el disco
entero, y al ser todos sus archivos protegidos, no tendrá que preocuparse acerca de la elección sobre
qué archivos quiere proteger, y dejar abierta la posibilidad de olvidarse de alguno.

Desde la liberación de Fedora 9, ésta y cualquier versión posterior tiene soporte nativo para Cifrado
LUKS. LUKS (por las iniciales en inglés de Linux Unified Key Setup-on-disk-format) va a cifrar las
particiones de su disco duro de modo que cuando su computadora se encuentre apagada, sus datos
estarán protegidos. Esto también protegerá los datos de su computadora de atacantes que intenten
ingresar a su equipo en el modo de usuario único, o que hubieran conseguido el acceso de otra
forma.

Las herramientas de cifrado total del disco duro, como LUKS, solo protegen sus datos cuando
su computadora se encuentra apagada. Una vez que la computadora se encienda, y LUKS haya
descifrado el disco, los archivos en ese disco quedarán disponibles para cualquiera que pueda
acceder normalmente a ellos. Para proteger sus archivos cuando su computadora esté encendida,
utilice la herramienta de cifrado total del disco combinada con alguna otra, como ser por ejemplo, el
cifrado de archivos. Recuerde también bloquear su computadora siempre que se encuentre lejos de
ella. Una frase de acceso protegiendo el salvapantallas, establecida para que se active a los pocos
minutos de inactividad del equipo, es una buena forma de mantener a los intrusos alejados de él.

3.3. Cifrado basado en archivo


GnuPG (GPG) es una versión de código abierto de PGP, que le permite firmar y/o cifrar un archivo
o mensaje de correo electrónico. Esto es útil para mantener la integridad del mensaje o del archivo,
y también protege la confidencialidad de la información contenida. En el caso del correo electrónico,
GPG brinda una protección doble. No solo puede proveer protección para los datos en reposo, sino
también para los datos en movimiento, luego que el mensaje ha sido enviado a través de la red.

155
Capítulo 3. Cifrado

El cifrado de archivos está orientado para proteger un archivo luego que éste haya abandonado
su computadora, como cuando, por ejemplo, envía un CD a través del correo postal. Algunas
herramientas para cifrar archivos pueden dejar rastros de aquellos archivos que cifran, rastros que
podrían ser recuperados en algunas circunstancias por atacantes que tengan acceso físico a su
equipo. Para proteger de este tipo de ataques a los contenidos de los archivos, utilice la herramienta
de cifrado de archivos combinada con alguna otra, como ser por ejemplo, el cifrado total del disco.

3.4. Datos en movimiento


Los datos en movimiento son datos que están siendo transmitidos en una red. La mayor amenaza a
este tipo de datos son las intercepciones y alteraciones que puedan sufrir. Los datos de su nombre de
usuario y contraseña nunca deberían ser transmitidos en una red sin que viajen protegidos, ya que
podrían ser interceptados, y de este modo permitir que alguien se haga pasar por usted, o que pueda
obtener acceso a información importante. Otro tipo de información privada, como son por ejemplo
los datos de una cuenta bancaria, deberían también ser protegidos cada vez que sean transmitidos
a través de una red. Si lo que se cifra es la sesión entera de red iniciada, entonces no tiene que
preocuparse acerca de posibles ataques a los datos que se transmitan en ella.

Los datos en movimiento son particularmente vulnerables a los atacantes, ya que ellos no necesitan
estar cerca de la computadora en donde estos datos son almacenados: simplemente necesitan estar
en algún punto del camino que esos datos están recorriendo. Los túneles de cifrado pueden proteger
los datos a lo largo del camino de las comunicaciones.

3.5. Redes privadas virtuales (VPNs)


Las Redes Virtuales Privadas (VPNs, por las iniciales en inglés de Virtual Private Networks), proveen
túneles cifrados entre computadoras o redes de computadoras a lo largo de todos los puertos. Esto
significa lógicamente que tanto el cliente como el servidor están conectados a la misma red a través
de VPN. Las VPNs son muy comunes, y muy fáciles de configurar y de utilizar.

3.6. Shell seguro (SSH, por las iniciales en inglés de Secure


Shell)
Shell seguro (SSH) es un protocolo de red muy poderoso que se utiliza para comunicarse con otros
sistemas operativos a través de un canal seguro. Las transmisiones realizadas con SSH están
cifradas y protegidas de cualquier tipo de intercepción. Pueden utilizarse también registros de tipo
criptográfico para proveer un mejor método de autenticación además del tradicional nombre de
usuario y contraseña.

SSH es muy fácil de activar. Simplemente iniciando el servicio SSH, el sistema comenzará a aceptar
conexiones y les permitirá acceder al sistema sólo a aquellas que, durante el proceso de conexión,
indiquen correctamente tanto un nombre de usuario como una contraseña. El TCP estándar para las
conexiones SSH es 22, sin embargo esto puede cambiarse modificando el archivo de configuración
/etc/ssh/sshd_config, y reiniciando el servicio. Este archivo también contiene otras opciones de
configuración para SSH.

SSH también ofrece la posibilidad de túneles cifrados entre computadoras, pero utilizando solamente
1
un puerto. El reenvío de puertos puede ser realizado sobre un túnel SSH , pero la utilización del
reenvío de puertos no es tan fluido como una VPN.
1
http://www.redhatmagazine.com/2007/11/27/advanced-ssh-configuration-and-tunneling-we-dont-need-no-stinking-vpn-software

156
Cifrado de disco LUKS (Linux Unified Key Setup-on-disk-format)

3.7. Cifrado de disco LUKS (Linux Unified Key Setup-on-


disk-format)
La Configuración de Clave Unificada de Linux en el formato de disco (o LUKS por sus iniciales en
inglés) le permite cifrar particiones en su computadora Linux. Esto es particularmente importante
cuando se trata de computadores móviles y de medios removibles. LUKS le permite claves múltiples
de usuario para descifrar una clave maestra que se usa para el cifrado de la partición.

3.7.1. Implementación de LUKS en Fedora


Fedora 9 y sus versiones posteriores utilizan LUKS para realizar el cifrado del sistema. Por defecto,
la opción para cifrar el sistema de archivos se encuentra destildada en la instalación. Si selecciona
la opción de cifrado de su disco duro, le será pedida una frase de acceso que deberá ingresar cada
vez que inicie su computadora. Esta frase de acceso "libera" la llave de cifrado que será utilizada
para descifrar su partición. Si elige modificar la tabla de particionamiento establecida por defecto,
puede entonces elegir qué particiones desea cifrar. Esto está definido en la configuración de la tabla
de particionamiento.

La implementación de LUKS por defecto de Fedora es AES 128 con un hashing SHA256. Los
cifradores disponibles son:
2
• AES - Advanced Encryption Standard - FIPS PUB 197

• Twofish (A 128-bit Block Cipher)

• Serpent
3
• cast5 - RFC 2144
4
• cast6 - RFC 2612

3.7.2. Cifrado manual de directorios

Advertencia
Al seguir este procedimiento se eliminarán todos los datos de la partición que está
cifrando. ¡Perderá toda la información! ¡Asegúrese de hacer un respaldo de sus
datos en una fuente externa antes de comenzar!

Si está corriendo una versión de Fedora anterior a la 9 y quiere cifrar una partición, o si quiere cifrar
una partición después de la instalación de la versión actual de Fedora, las siguientes instrucciones
son para Ud. El ejemplo que ofrecemos más abajo muestra elcifrado de una partición /home pero
puede utilizarse sobre cualquier partición.

El siguiente procedimiento borrará todos los datos existentes, de modo que es conveniente
asegurarse de haber hecho un respaldo antes de comenzar. También es necesario tener una
partición separada para /home (en nuestro caso es /dev/VG00/LV_home). Todo lo que se muestra
a continuación debe ser realizado como usuario root. Cualquiera de las etapas en este método no
puede realizarse a no ser que la anterior haya sido exitosa.

157
Capítulo 3. Cifrado

3.7.3. Instrucciones paso a paso


1. Ingrese a nivel de ejecución 1: telinit 1

2. Desmonte su /home actual: umount /home

3. Si falla, use fuser para identificar y eliminar los procesos que retienen a /home: fuser -mvk /
home

4. Verifique que /home ya no esté montado: cat /proc/mounts | grep home

5. Llene su partición con datos al azar: dd if=/dev/urandom of=/dev/VG00/LV_home. Este


proceso necesita de muchas horas para completarse.

Importante
El proceso, sin embargo, es fundamental para obtener una buena protección
contra los intentos de descifrado. Sólo déjelo correr toda la noche.

6. Inicie su partición: cryptsetup --verbose --verify-passphrase luksFormat /dev/


VG00/LV_home

7. Abra el dispositivo nuevo cifrado: cryptsetup luksOpen /dev/VG00/LV_home home

8. Verifique que se encuentre presente: ls -l /dev/mapper | grep home

9. Genere un sistema de archivos: mkfs.ext3 /dev/mapper/home

10. Móntelo: mount /dev/mapper/home /home

11. Verifique que sea visible: df -h | grep home

12. Agregue lo siguiente a /etc/crypttab: home /dev/VG00/LV_home none

13. Edite su /etc/fstab, elimine la antigua entrada de /home, y agregue /dev/mapper/home /home
ext3 defaults 1 2

14. Verifique su entrada fstab: mount /home

15. Restaure los contextos de seguridad de SELinux: /sbin/restorecon -v -R /home

16. Reinicie: shutdown -r now

17. La entrada en /etc/crypttab hace que su computadora le pida su frase de acceso luks al arrancar

18. Ingrese como root y restaure su respaldo

3.7.4. Lo que acaba de realizar


Felicitaciones, ahora tiene una partición cifrada para que todos sus datos reposen en forma segura
cuando su equipo se encuentre apagado.

158
Enlaces de interés

3.7.5. Enlaces de interés


Para información adicional sobre LUKS, o sobre el cifrado de discos duros bajo Fedora, por favor
visite alguno de los siguientes enlaces:
5
• Configuración de la Llave Unificada de Linux - LUKS (en inglés)

• COMO: Generando un volumen físico (PV) cifrado, utilizando otro disco duro, pvmove, y un CD o
6
DVD vivo de Fedora

3.8. Archivos cifrados mediante 7-Zip


7
7-Zip es una nueva herramienta de compresión multiplataforma que también puede realizar
poderosos cifrados (AES-256) para proteger los contenidos de un archivo. Esto es muy útil cuando
necesite trasladar datos entre diferentes computadoras que utilicen distintos sistemas operativos, y
quiera utilizar para ello una herramienta de cifrado portátil (por ejemplo, Linux en el hogar, Windows
en el trabajo).

3.8.1. Instalación de 7-Zip en Fedora


7-Zip no es un paquete que venga instalado por defecto con Fedora, pero se encuentra disponible
para descargarlo desde el repositorio. Una vez instalado, el paquete se irá actualizando cada vez que
sea necesario, del mismo modo que el resto del software en su sistema, sin necesitar para ello ningún
tipo de atención especial.

3.8.2. Instrucciones paso a paso para su instalación


• Abra una terminal: Haga clic sobre ''Aplicaciones'' -> ''Herramientas del
sistema '' -> ''Terminal''

• Instale 7-Zip con permisos de usuario sudo: sudo yum install p7zip

• Cierre la terminal: exit

3.8.3. Instrucciones paso a paso para su utilización


Al seguir las siguientes instrucciones, usted va a cifrar y comprimir su directorio "Documentos". Su
directorio "Documentos" original va a permanecer inalterado. Esta técnica puede ser aplicada a
cualquier directorio o archivo al que usted tenga acceso en su sistema de archivos.

• Abra una terminal: Haga clic sobre ''Aplicaciones'' -> ''Herramientas del
sistema '' -> ''Terminal''

• Comprima y cifre: (ingrese una contraseña cuando le sea pedido) 7za a -mhe=on -ms=on -p
Documentos.7z Documentos/

El directorio "Documentos" ahora se encuentra cifrado y comprimido. Las instrucciones siguientes


trasladarán el archivo cifrado hacia alguna otra parte y entonces lo descomprimirá.

• Cree un directorio nuevo: mkdir lugarnuevo

• Traslade el archivo cifrado: mv Documentos.7z lugarnuevo


7
http://www.7-zip.org/

159
Capítulo 3. Cifrado

• Posiciónese en el nuevo directorio: cd lugarnuevo

• Descomprima el archivo: (ingrese la contraseña cuando se le pida) 7za x Documentos.7z

El archivo ya ha sido descomprimido en el nuevo directorio. Las instrucciones siguientes van a


deshacer los pasos realizados y devolverán a su computadora el estado anterior en el que se
encontraba.

• Diríjase al directorio superior inmediato: cd ..

• Borre el archivo de prueba creado y sus contenidos extraídos: rm -r lugarnuevo

• Cierre la terminal: exit

3.8.4. Elementos para prestar atención


7-Zip no se encuentra instalado por defecto en los sistemas operativos Microsoft Windows o Mac OS
X. Si necesita utilizar sus archivos 7-Zip en alguna de estas plataformas, necesitará instalar la versión
8
apropiada de 7-Zip en los equipos correspondientes. Vea la página de descargas .

3.9. Utilizando GNU Privacy Guard (GnuPG)


GnuPG (GPG) es utilizado para que usted pueda identificarse y autenticar sus comunicaciones,
incluyendo aquellas con personas que no conoce. GPG permite que cualquiera que lea un correo
electrónico firmado con GPG pueda verificar su autenticidad. En otras palabras, GPG permite que el
destinatario de una comunicación firmada por usted, tenga un grado de certeza razonable acerca de
que fue usted quién efectivamente la envió. GPG es útil debido a que ayuda a prevenir la modificación
de códigos por terceros, o la intercepción y alteración de mensajes.

GPG también puede ser utilizado para firmar y/o cifrar archivos almacenados en su computadora, o
en un disco de red. Esto puede agregar protección adicional al prevenir que un archivo sea alterado o
leído por personas que no hayan sido autorizadas para hacerlo.

Para utilizar GPG para autenticar o cifrar correos electrónicos, primero debe generar sus llaves
públicas y privadas. Luego de haberlo hecho, debe cpnfigurar su cliente de correo electrónico para
que las pueda utilizar.

3.9.1. Generando claves GPG en GNOME


Instale la herramienta Seahorse, que hace que la administración de claves GPG sea más sencilla.
Desde el menú principal, elija Sistema > Administración > Añadir/Quitar Software, y
aguarde a que PackageKit se inicie. Ingrese Seahorse en el cuadro de texto y haga que se inicie
la búsqueda de los paquetes. Tilde la casilla junto al paquete denominado ''seahorse'' y haga clic en
''Aplicar'' para que el software sea añadido. Puede también instalar Seahorse mediante líneas de
comando, ingresando en una terminal el comando su -c "yum install seahorse".

Para crear una llave, desde el menú ''Aplicaciones > Accessorios'' elija ''Contraseñas y llaves de
cifrado'', que inicia la aplicación Seahorse. Luego, desde el menú ''Llave'', elija ''Generar nueva
llave...'', luego ''Llave PGP '', y luego haga clic en ''Continuar''. Ingrese su nombre completo, dirección
de correo electrónico, y un comentario adicional optativo que explique quién es usted (por ejemplo:
Juan Pérez, jperez@ejemplo.com, El Grande). Haga clic en ''Crear''. Se mostrará un diálogo
8
http://www.7-zip.org/download.html

160
Generar claves GPG en KDE

pidiéndole una frase de acceso para la llave. Elija una frase de acceso poderosa, pero que también le
sea fácil de recordar. Haga clic en ''OK'' y la llave será creada.

Advertencia
Si se olvida su frase de acceso, la clave no podrá ser utilizada y cualquier dato
encriptado por ella será perdido.

Para encontrar su ID de llave GPG, busque en la columna ''ID de llave'' junto a la llave creada recién.
En la mayoría de los casos, si se le solicita el ID de la llave, debería añadir "0x" al ID de la llave, como
por ejemplo "0x6789ABCD". Debería realizar un respaldo de su llave privada y almacenarla en algún
sitio seguro.

3.9.2. Generar claves GPG en KDE


Inicie el programa KGpg desde el menú principal seleccionando Lanzador de aplicaciones >;
Utilidades > Herramienta de cifrado. Si no ha utilizado nunca KGpg, el programa lo conduce a través
del proceso para crear su propio par de llaves GPG. Un cuadro de diálogo le pedirá crear un nuevo
par. Ingrese su nombre, dirección de correo electrónico y un comentario opcional. Puede también
elegir el tiempo de vigencia de su llave, también su fuerza (número de bits) y algoritmos. El siguiente
cuadro de diálogo le solicita una frase de acceso. En este punto, su llave aparece en la ventana
principal de KGpg

Advertencia
Si se olvida su frase de acceso, la clave no podrá ser utilizada y cualquier dato
encriptado por ella será perdido.

Para encontrar su ID de llave GPG, busque en la columna ''ID de llave'' junto a la llave creada recién.
En la mayoría de los casos, si se le solicita el ID de la llave, debería añadir "0x" al ID de la llave, como
por ejemplo "0x6789ABCD". Debería realizar un respaldo de su llave privada y almacenarla en algún
sitio seguro.

3.9.3. Generar una clave GPG mediante la línea de comandos


Use el siguiente comando: gpg --gen-key

El siguiente comando genera un par de claves consistentes en una clave pública y otra privada. El
resto de las personas utilizan su clave pública para autenticar y/o decriptar sus comunicaciones.
Distribuya su clave pública lo mayor que pueda, especialmente a todos aquellos que quieran recibir
comunicaciones auténticas por parte suya, como ser por ejemplo una lista de correo. El proyecto de
documentación de Fedora, por ejemplo, le pide a sus participantes que incluyan su llave pública GPG
en su correo introductorio.

Una serie de mensajes lo dirigen a lo largo del proceso. Presione la tecla Enter para indicar el
valor establecido por defecto si así lo desea. El primer mensaje le pide que elija el tipo de clave que
prefiere:

Por favor elija qué tipo de clave desea: (1) DSA y ElGamal (por defecto) (2) DSA (sólo firma) (4)
RSA (sólo firma) ¿Su elección? En la mayoría de los casos, la establecida por defecto es la elección

161
Capítulo 3. Cifrado

correcta. Una clave DSA/ElGamal le permite no solo firmar documentos, sino también encriptar
archivos.

A continuación, elija el tamaño de la clave: el mínimo es de 768 bits, el establecido por defecto es de
1024 bits, el mayor tamaño sugerido es de 2048 bits. ¿Qué tamaño prefiere? (1024). Nuevamente,
el establecido por defecto es suficiente para la mayoría de los usuarios, y representa un nivel de
seguridad ''extremadamente'' poderoso.

A continuación, elija cuándo expiará la clave. Es una buena idea elegir una fecha de expiración en
lugar de elegir la opción establecida por defecto, que es ''ninguna.''. Si, por ejemplo, la dirección de
correo electrónico de la clave deja de ser válida, una fecha de expiración le recordará a los demás
que dejen de utilizar esa clave pública.

Por favor indique por cuánto tiempo la clave debe ser válida. 0 = la calve no expira, d = la clave expira
en n días, w = la clave expira en n semanas, m = la clave expira en n meses, y = la clave expira en n
años. ¿La clave es válida por? (0)

Ingresar un valor de 1y, por ejemplo, hace que la clave sea válida durante un año. (Puede modificar
esta fecha de expiración luego que la clave haya sido generada, si cambió de parecer.)

Antes que el programa gpg> le pida información para la firma, aparece el siguiente mensaje: ¿Es
correcto (s/n)?. Ingrese scode> para finalizar el proceso.

A continuación, ingrese su nombre y dirección de correo electrónico. Recuerde que este proceso se
trata de autenticarlo a usted como un individuo real. Por esta razón, incluya su verdadero nombre. No
utilice apodos o alias, ya que esto oscurece o disimula su identidad.

Ingrese su dirección de correo electrónico real para su clave GPG. Si elige una falsa o inexistente,
será más difícil para los demás encontrar su clave pública. Esto hace que autenticar sus
comunicaciones sea más difícil. Si está utilizando esta clave GPG para presentarse en una lista de
correo, por ejemplo, ingrese la dirección de correo electrónico que usted utiliza con esa lista.

Utilice el campo de comentario para incluir un apodo o cualquier otra información. (Algunas personas
utilizan diferentes llaves para diferentes propósitos, e identifican cada llave con un comentario, como
por ejemplo "Oficina", o "Proyectos de código abierto".)

En el mensaje de confirmación, ingrese la letra O para continuar si todas las opciones son correctas,
o utilice las opciones propuestas para solucionar cualquier problema. Ingrese una frase de acceso
para su clave secreta. El programa GPG le pide que ingrese dos veces su frase de acceso para
asegurarse que no haya cometido errores de tipeo.

Por último, gpg genera datos aleatorios para hacer que su clave sea lo más auténtica posible. Mueva
su ratón, presione teclas de manera azarosa, o realice alguna otra tarea en el sistema durante este
paso para acelerar el proceso. Una vez ha finalizado, sus claves están completas y listas para ser
utilizadas:

pub 1024D/1B2AFA1C 2005-03-31 John Q. Doe (Fedora Docs Project) <jqdoe@example.com>


Key fingerprint = 117C FE83 22EA B843 3E86 6486 4320 545E 1B2A FA1C
sub 1024g/CEA4B22E 2005-03-31 [expires: 2006-03-31]

La huella digital de la clave es una "firma" abreviada de su clave. Le permite confirmar a otros que
han recibido su clave pública actual sin haber sido alterada. No necesita anotar esta huella. Para verla
siempre que lo desee, utilice el siguiente comando, sustituyendo su dirección de correo electrónico:
gpg --fingerprint jperez@ejemplo.com

162
Usando GPG con Alpine

Su "ID de llave GPG" consiste en 8 dígitos hexadecimales identificando la llave pública. En el


ejemplo, el ID de clave GPG es 1B2AFA1C. En la mayoría de los casos, si se le pregunta por el ID de
su clave debería anteponer "0x" al ID de la clave, como en "0x1B2AFA1C".

Advertencia
Si se olvida su frase de acceso, la clave no podrá ser utilizada y cualquier dato
encriptado por ella será perdido.

3.9.4. Usando GPG con Alpine


Si está utilizando el cliente de correo electrónico Alpine o Pine, entonces también necesitará
descargar e instalar el paquete ez-pine-gpg. Este software actualmente se encuentra disponible en
http://business-php.com/opensource/ez-pine-gpg/. Una vez que haya instalado ez-pine-gpg, tendrá
que modificar su archivo ~/.pinerc. Necesita:

1. /home/username/bin debe ser reemplazado con la ruta de instalación que usted especificó

2. En dos lugares, el gpg-identifier luego de _RECIPIENTS_ debería ser reemplazado por su propio
identificador de llave pública GPG. La razón por la que debe hacerlo es por que, si le envía un
mensaje cifrado a "Alicia", ese mensaje también pueda ser cifrado con su llave pública -- si no
hace esto, entonces no podrá abrir ese mensaje en su carpeta de correos enviados, y recordar lo
que le ha escrito.

Debe verse algo similar a esto:

# This variable takes a list of programs that message text is piped into
# after MIME decoding, prior to display.
display-filters=_LEADING("-----BEGIN PGP")_ /home/max/bin/ez-pine-gpg-incoming

# This defines a program that message text is piped into before MIME
# encoding, prior to sending
sending-filters=/home/max/bin/ez-pine-gpg-sign _INCLUDEALLHDRS_,
/home/username/bin/ez-pine-gpg-encrypt _RECIPIENTS_ gpg-identifier,
/home/username/bin/ez-pine-gpg-sign-and-encrypt _INCLUDEALLHDRS_ _RECIPIENTS_ gpg-
identifier

3.9.5. Usando GPG con Evolution

3.9.5.1. Configurando GPG para usar con Evolution


Para configurar GPG para ser utilizado en Evolution, elija Herramientas, Configuraciones... en
el menú principal de Evolution. En el panel izquierdo, seleccione Cuentas de correo. En el panel
derecho, seleccione la cuenta de correo que utiliza para la correspondencia con el Proyecto Fedora.
Luego haga clic sobre el botón Editar. Aparece el diálogo de edición de cuentas de Evolution.
Seleccione la pestaña de Seguridad.

En el campo llave PGP/GPG, ingrese el ID de la llave GPG que coincida con esta dirección de correo
electónico. Si no está seguro de cuál sea su ID, utilice el siguiente comando: gpg --fingerprint
EMAIL_ADDRESS. El ID de la llave es el mismo que los últimos ocho caracteres (4 bytes) de la huella
digital de la llave. Es una buena idea hacer clic sobre la opción Siempre cifrarme a mí mismo cuando

163
Capítulo 3. Cifrado

sea enviado correo cifrado. Tal vez también quiera seleccionar Siempre firmar mensajes salientes
cuando sea utilizada esta cuenta.

Nota
Si no identifica las llaves públicas como confiables en su administrador de llaves, no
podrá cifrar correos electrónicos a sus dueños, a menos que elija la opción Siempre
confiar en las llaves de mi administrador de llaves cuando se realicen los cifrados. En
su lugar recibirá un diálogo indicando que ha fallado una verificación de confianza

3.9.5.2. Verificando correos electrónicos con Evolution


Evolution verificará automáticamente cualquier mensaje entrante firmado con GPG para comprobar
su validez. Si Evolution no puede verificar un mensaje debido a la ausencia de una llave pública (o
a su manipulación), lo mostrará con una marca roja. Si el mensaje es verificado pero usted no ha
firmado la llave ni local ni globalmente, la marca será de color amarillo. Si el mensaje es verificado
y usted ha firmado la llave, la marca será de color verde. Cuando haga clic en el ícono de sellado,
Evolution muestra un diálogo con mayor información relacionada con la seguridad de la firma. Para
agregar una llave pública a su administrador de llaves, utilice la función de búsqueda junto con la
dirección de correo electrónico del dueño de la llave: gpg --keyserver pgp.mit.edu --search
email address. Para importar la llave correcta, necesita hacer coincidir el ID de la llave, con la
información ofrecida por Evolution

3.9.5.3. Firmando y cifrando correos electrónicos con Evolution


El hecho de firmar los correos electrónicos permite que sus destinatarios verifiquen que ese correo
realmente proviene de usted. El Proyecto de Documentación de Fedora (y todo el resto del proyecto
Fedora) fomentan la utilización de correos firmados entre sus participantes, incluyendo los correos
enviados a las diferentes listas. Cifrar un correo electrónico hace que solamente sus destinatarios
puedan leerlo. Por favor, no envíe correos cifrados a las listas de correo de Fedora, ya que casi nadie
va a poder leerlos.

Mientras esté redactando su correo, elija el menú Seguridad, y luego seleccione Firma PGP para
firmar su mensaje. Para cifrar su mensaje, seleccione Cifrado PGP. También puede firmar un mensaje
cifrado, lo que es una sana costumbre. Cuando envía un mensaje, Evolution le pedirá que ingrese
su frase de acceso de llave GPG (luego de tres intentos fallidos, Evolution genera un error). Si
selecciona la opción Recordar la contraseña por el resto de esta sesión, no necesitará utilizar su frase
de acceso nuevamente para firmar o descifrar, a menos que finalice y reinicie Evolution.

3.9.6. Usando GPG con Thunderbird


Fedora ofrece Mozilla Thunderbird en el paquete thunderbird, y el paquete mozilla-mail para la
aplicación de correo electrónico Mozilla Suite. Thunderbird es la aplicación de correo electrónico
recomendada de Mozilla, y aparece en su escritorio bajo el menú Aplicaciones > Internet >
Thunderbird Email.

Los productos Mozilla tienen soporte para extensiones, que son diferentes complementos que le
agregan nuevas características a la aplicación principal. Las extensiones Enigmail ofrecen soporte
GPG para productos de correo electrónico de Mozilla. Existen versiones de Enigmail tanto para
Mozilla Thunderbird como para Seamonkey de Mozilla Suite. El software Netscape de AOL está
basado en productos Mozilla, y podrían también utilizar esta extensión.

164
Acerca del encriptado de la clave pública

Para poder instalar Enigmail en sistemas Fedora, siga las instrucciones dadas a continuación.

Enigmail utiliza el término OpenPGP en elementos del menú y en las opciones. GPG es una
implementación de OpenPGP, y estos términos pueden entenderse como siendo equivalentes.

La pagina principal de Enigmail es: http://enigmail.mozdev.org/download.html.

En esta página se pueden apreciar capturas de pantalla de Enigmail y GPG en acción: http://
enigmail.mozdev.org/screenshots.html.

3.9.6.1. Instalando Enigmail


Enigmail ahora se encuentra disponible en los repositorios de Fedora. Puede ser instalado tipeando
yum install thunderbird-enigmail en la línea de comandos. De forma alternativa, puede
instalarse el paquete thunderbird-enigmail, utilizando la herramienta Sistema > Administración
> Agregar/eliminar software.

3.9.7. Acerca del encriptado de la clave pública


9
1. Wikipedia - Criptografía de la llave pública (en inglés)
10
2. HowStuffWorks - Encryption

165
166
Principios Generales sobre la
Seguridad de la Información
Los siguientes principios generales ofrecen una visión panorámica de algunas buenas actitudes para
adoptar relacionadas con la seguridad:

• encriptar todos los datos transmitidos por la red para ayudar a prevenir ataques de tipo hombre-
en-el-medio, o escuchas. Es importante encriptar de la información de autenticación, como ser
contraseñas.

• minimice la cantidad de software instalado y de servicios en ejecución.

• utilice herramientas y software destinadas a mejorar la seguridad de su equipo. Por ejemplo,


Security-Enhanced Linux (SELinux) para Control de Acceso Obligatorio (MAC, por las siglas en
inglés de Mandatory Acces Control), Netfilter iptables para filtrar paquetes (cortafuegos), y la
Protección de Privacidad GNU (GnuPG, por las siglas en inglés de GNU Privacy Guard) para los
archivos encriptados.

• si es posible, corra cada servicio de red en un servidor separado para minimizar el riesgo de que
una debilidad en uno de los servicios, se utilice para comprometer a los demás.

• mantenga las cuentas de usuario: genere y aplique una política firme de contraseñas; borre las
cuentas de usuarios que no son utilizadas.

• periódicamente consulte los archivos de registros del sistema y de las diferentes aplicaciones que
utilice. Por defecto, los archivos de registros del sistema que sean pertinentes para la seguridad
del equipo, son almacenados en /var/log/secure y /var/log/audit/audit.log. Nota:
enviar archivos de registros hacia un servidor dedicado ayuda a prevenir que los atacantes puedan
modificar fácilmente los archivos de registros locales, y de este modo evitar ser detectados.

• nunca ingrese como root directamente, a menos de que sea absolutamente necesario. Los
administradores deben usar sudo para ejecutar comandos como root cuando sea necesario. Las
cuentas capaces de usar sudo se especifican en /etc/sudoers, que se edita con el utilitario
visudo.

4.1. Consejos, Guías y Herramientas


1
La Agencia de Seguridad Nacional de los Estados Unidos (NSA, por las siglas en inglés de National
Security Agency), para ayudar a las agencias gubernamentales, empresas e individuos a prevenir los
ataques a la seguridad de sus sistemas, ofrece guías y consejos estrictos para numerosos sistemas
operativos. Las siguientes guías (en formato PDF) ofrecen asistencia para el sistema operativo Linux
para empresas de Red Hat 5.
2
• Consejos para asegurar un sistema Linux 5 para empresas de Red Hat (en ingllés)
3
• Guía para la configuración segura de un sistema Linux 5 para empresas de Red Hat (en inglés)

La Agencia de Defensa de Información de Sistemas (DISA, por las siglas en inglés de Defense
4
Information Systems Agency) ofrece documentación, evaluaciones, y listas con ítems a ser
1
www.nsa.gov
4
http://www.disa.mil/

167
Capítulo 4. Principios Generales sobre la Seguridad de la Información

verificados, que le ayudarán a asegurar su sistema (Soporte para un Entorno Seguro de la


5 6
Información ). La GUIA DE IMPLEMENTACION TECNICA DE SEGURIDAD UNIX (PDF) es una
guía muy específica para la seguridad en sistemas UNIX - antes de leerla, se recomienda poseer un
conocimiento avanzado tanto de UNIX como de Linux.
7
La Lista de Items a verificarse para la Seguridad de UNIX Version 5, Release 1.16 de DISA ofrece
diferentes documentos y listas de verificación, abarcando aspectos que van desde el correcto
establecimiento de la pertenencia de los archivos del sistema, hasta el control de parches.
8
Al mismo tiempo, DISA ha puesto a disposición diferentes programas de UNIX SPR que permiten a
los administradores verificar configuraciones específicas en sus sistemas. Estos programas ofrecen
reportes en formato XML, en los que muestran todas las configuraciones vulnerables conocidas.

5
http://iase.disa.mil/index2.html
6
http://iase.disa.mil/stigs/stig/unix-stig-v5r1.pdf
7
http://iase.disa.mil/stigs/checklist/unix_checklist_v5r1-16_20090215.ZIP
8
http://iase.disa.mil/stigs/SRR/unix.html

168
Instalación segura
La seguridad comienza con la primera vez que introduce un CD o DVD para instalar Fedora.
Configurar su sistema en forma segura desde un principio, hace que sea más fácil implementar
configuraciones de seguridad adicional más adelante.

5.1. Particiones del disco


La NSA recomienda crear particiones separadas para /boot, /, /home, /tmp y /var/tmp. Las razones
son diferentes y se tratará por separado para cada partición.

/boot - Esta partición es la primera partición que se lee durante el arranque. El cargador de arranque
y las imágenes del kernel que se usan para arrancar su sistema Fedora se almacenan en esta
partición. Esta partición no debe ser encriptada. Si esta partición se incluye en / y la misma es
encriptada o de alguna forma se vuelve no disponible, entonces su sistema no podrá arrancar.

/home - Cuando los datos del usuario (/home) se almacenan en / en vez de una partición separada,
la partición se puede llenar haciendo que el sistema operativo se vuelva inestable. También, cuando
se actualice su sistema a la siguiente versión de Fedora, poder mantener sus datos en una partición /
home hace que el proceso sea mucho más sencillo, dado que no será sobrescrita durante la
instalación. Si la partición raíz (/) se corrompe, sus datos se perderán para siempre. Usando una
partición separada hay un poco más de protección contra la pérdida de datos. También se puede
elegir esa partición para los respaldos frecuentes.

/tmp y /var/tmp - Ambos directorios /tmp y /var/tmp se usan para almacenar datos que no se necesitan
guardar por mucho tiempo. Sin embargo, si una gran cantidad de datos inundan uno de estos
directorios, puede consumir todo el espacio libre. Si esto pasa y estos directorios se almacenan en /,
entonces su sistema se puede volver inestable y caerse. Por esta razón, es una buena idea la de
trasladar estos directorios a sus propias particiones.

5.2. Utilice encriptado de particiones mediante LUKS


1
Desde Fedora 9 con la implementación de Linux Unified Key Setup-on-disk-format (LUKS), ha
permitido que el proceso de cifrado sea algo muy sencillo. A lo largo del proceso de instalación se le
presenta una opción al usuario que le permite cifrar sus particiones. El usuario debe suministrar una
frase de acceso que será la llave para desbloquear el cifrado en masa que se utilizará para proteger
los datos de las particiones.

1
http://fedoraproject.org/wiki/Security_Guide/9/LUKSDiskEncryption

169
170
Mantenimiento de Software
Una manutención adecuada del software es extremadamente importante a la hora de asegurar un
sistema. Es fundamental enmendar software que presenta un fallo en el momento inmediato a la
aparición de la solución, de modo de evitar que atacantes que conocen ese fallo, lo aprovechen y se
infiltren en su sistema.

6.1. Instale el software mínimo


La mejor forma de proceder es instalando solo los paquetes que se van a utilizar, ya que cada
pieza de software en su computadora posiblemente pueda contener algún tipo de debilidad. Si
está realizando una instalación desde un DVD, dese la oportunidad de elegir exactamente qué
paquetes quiere instalar en este proceso. Si se da cuenta que necesita otro paquete, siempre puede
agregárselo luego al sistema.

6.2. Planifique y configure actualizaciones de seguridad


Todo software contiene errores. A menudo, estos errores pueden transformarse en una debilidad que
podría dejar a su sistema expuesto a usuarios maliciosos. Sistemas no enmendados son una causa
frecuente de intrusiones en las computadoras. Debería tener planificada la instalación de parches de
seguridad en una forma sincronizada de manera tal de poder anular esas debilidades, y evitar así que
sean aprovechadas.

Para usuarios hogareños, las actualizaciones de seguridad deberían ser instaladas lo antes posible.
Configurar instalaciones automáticas de ellas es una manera de evitar el tener que recordar
constantemente hacerlo, pero podría traer aparejado el pequeño riesgo de que un determinado
paquete entre en conflicto con la configuración de su sistema, o con otro software de su equipo.

Para los comercios o para los usuarios hogareños avanzados, las actualizaciones de seguridad
deberían ser probadas y planeadas para ser instaladas. Será necesario utilizar controles adicionales
para proteger el sistema durante el lapso de tiempo existente entre el lanzamiento del parche y su
instalación definitiva. Estos controles dependen de la debilidad en cuestión, pero pueden incluir reglas
de cortafuegos adicionales, o el uso de cortafuegos externos, o cambios en las configuraciones del
sistema.

6.3. Ajustando las actualizaciones automáticas


Fedora está configurado para aplicar todas las actualizaciones en un día designado. Si quiere
modificar el modo en que su sistema instala las actualizaciones, debe hacerlo a través de las
'''Preferencias de Actualización de Software'''. Puede cambiar el día elegido, el tipo de actualizaciones
a ser aplicadas o si desea o no que se le notifique cuando existan actualizaciones disponibles.

En Gnome, puede encontrar controles para sus actualizaciones en System -> Preferencias
-> Actualizaciones de software. En KDE, esta herramienta se encuentra ubicada en:
Aplicaciones -> Configuración -> Actualizaciones de software.

6.4. Instale paquetes identificados desde repositorios


conocidos
Los paquetes de software son publicados a través de repositorios. Todos los repositorios más
conocidos tienen soporte para poder identificar sus paquetes. La identificación de los paquetes utiliza

171
Capítulo 6. Mantenimiento de Software

tecnología de llave pública para confirmar que un paquete publicado por un repositorio, no haya sido
alterado desde que la identificación fue aplicada. Esto ofrece cierta protección para evitar instalar
software que podría haber sido alterado maliciosamente luego de haber sido creado, pero antes que
usted lo haya descargado.

Si se utilizan demasiados repositorios, o que no sean confiables, o que alojen paquetes sin
identificación, se corre un gran riesgo de introducción de códigos maliciosos o que pueden llegar a
debilitar su sistema. Sea precavido al agregar repositorios para actualizar su sistema.

172
Referencias
Las siguientes referencias tienen como objetivo orientar la búsqueda de información adicional
relacionada con SELinux y Fedora pero están más allá del alcance de esta guía. Tenga en cuenta
que debido al veloz desarrollo de SELinux, algunos de estos materiales podrían utilizarse sólo en
versiones específicas de Fedora.

Libros
SELinux en Ejemplos
Mayer, MacMillan y Caplan

Prentice Hall, 2007

Tutoriales y asistencia
Entendiendo y personalizando la política de SELinux para HTTP de Apache
http://fedora.redhat.com/docs/selinux-apache-fc3/

Tutoriales y charlas de Russell Coker


http://www.coker.com.au/selinux/talks/ibmtu-2004/

Tutorial genérico para escritura de Políticas de SELinux


http://www.lurking-grue.org/writingselinuxpolicyHOWTO.html

Base de Conocimientos de Red Hat


http://kbase.redhat.com/

Información general
Sitio web principal de SELinux de la NSA
1
http://www.nsa.gov/selinux/

NSA SELinux FAQ


2
http://www.nsa.gov/selinux/info/faq.cfm

Fedora SELinux FAQ


http://fedora.redhat.com/docs/selinux-faq-fc3/

Linux de seguridad mejorada de código abierto de la NSA


http://www.oreilly.com/catalog/selinux/

Tecnología
Un repaso de las clases de objetos y permisos
http://www.tresys.com/selinux/obj_perms_help.html

Integración del soporte flexible para las Políticas de Seguridad dentro del Sistema Operativo Linux
(una historia de la implementación de Flask en Linux)
http://www.nsa.gov/research/_files/selinux/papers/selsymp2005.pdf

1
http://www.nsa.gov/research/selinux/index.shtml
2
http://www.nsa.gov/research/selinux/faqs.shtml

173
Capítulo 7. Referencias

Implemenetación de SELinux como un módulo de seguridad de linux


http://www.nsa.gov/research/_files/publications/implementing_selinux.pdf

Una Configuración de Política de Seguridad para el Linux de Seguridad Mejorada


http://www.nsa.gov/research/_files/selinux/papers/policy/policy.shtml

Comunidad
Guía del Usuario de SELinux de Fedora
http://docs.fedoraproject.org/selinux-user-guide/

Guía de administración de servicios confinados de SELinux de Fedora


http://docs.fedoraproject.org/selinux-managing-confined-services-guide/

Página comunitaria de SELinux


http://selinux.sourceforge.net

IRC
irc.freenode.net, #selinux, #fedora-selinux, #security

Historia
Historia breve de Flask
http://www.cs.utah.edu/flux/fluke/html/flask.html

Antecedentes completos sobre Fluke


http://www.cs.utah.edu/flux/fluke/html/index.html

174
Apéndice A. Estándares de cifrado
A.1. Cifrado sincronizado

A.1.1. Advanced Encription Standard - AES


En criptografía, el Estándar de cifrado avanzado (AES, por las iniciales en inglés de Advanced
Encryption Standard), es un estándar de cifrado adoptado por el gobierno de los Estados Unidos.
Comprende tres cifrados por bloques: AES-128, AES-192 y AES-256, adoptados entre una extensa
colección originalmente publicada como Rijndael. Cada cifrado AES tiene un bloque de 128 bits de
tamaño, con llaves de 128, 192 y 256 bits respectivamente. Los cifrados AES han sido analizados
extensamente y son utilizados a nivel mundial, del mismo modo que sucedió con su predecesor, el
1
Estándar de cifrado de datos (DES, por las iniciales en inglés de Data Encryption Standard.

A.1.1.1. Usos de AES

A.1.1.2. Historia de AES


AES fue anunciado por el Instituto nacional de tecnología y estándares (NIST, por las iniciales en
inglés de National Institute of Standards and Technology) como U.S. FIPS PUB 197 (FIPS 197) el 26
de noviembre del 2001, luego de un proceso de estandarización de 5 años durante el cual quince
diseños competidores fueron presentados y evaluados antes de que Rijndael fuera seleccionado
como el mas apropiado (ver proceso de Estándar de cifrado avanzado para obtener más detalles).
Fue considerado un estándar el 26 de mayo del 2002. Se encuentra disponible en varios paquetes
diferentes de cifrado. AES es el primer cifrado abierto, y públicamente accesible que fue aprobado por
la NSA para transmitir información considerada altamente secreta (ver más abajo Seguridad de AES).
2

El cifrado Rijndael fue desarrollado por dos criptógrafos Belgas, Joan Daemen y Vincent Rijmen,
quienes lo enviaron al proceso de selección de AES. Rijndael (pronunciado [r�inda�l]) es una
3
contracción de los nombres de los dos inventores.

A.1.2. Data Encryption Standard - DES


El Estándar de cifrado de datos (DES), es un cifrado de bloques (una forma de compartir cifrados
secretos), que fue elegido en 1976 por el Departamento nacional de estándares norteamericano
como el Estándar federal para el procesamiento de la información (FIPS, por las iniciales en inglés de
Federal Information Processing Standard) de ese país, y que luego fue adoptándose por otros países
de nuestro planeta. Está basado en un algoritmo de llave simétrico que utiliza una llave de 56 bits. En
un principio, este algoritmo fue problemático con respecto a ciertos elementos: diseños secretos, una
longitud de llave relativamente breve, y sospechas por la existencia de una puerta de entrada trasera
para NSA, la Agencia de seguridad norteamericana. Debido a ello, DES fue sometido a intensos

"Estándar de cifrado avanzado". Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/
Advanced_Encryption_Standard
"Estándar de cifrado avanzado". Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/
Advanced_Encryption_Standard
"Estándar de cifrado avanzado". Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/
Advanced_Encryption_Standard

175
Apéndice A. Estándares de cifrado

escrutinios académicos que motivaron la comprensión moderna de los cifradores de bloque y sus
4
criptoanálisis.

A.1.2.1. Usos de DES

A.1.2.2. Historia de DES


Hoy en día, a DES se lo considera un método inseguro para gran cantidad de aplicaciones. Esto se
debe fundamentalmente a que el tamaño de la llave de 56 bits es demasiado pequeño: en enero del
año 1999, distributed.net y la Electronic Frontier Foundation colaboraron para demostrar públicamente
que se podía quebrar una llave DES en 22 horas y 15 minutos (ver cronología). Existen además
algunos resultados analíticos que demuestran debilidades teóricas en el cifrado, si bien son inviables
de realizar en la práctica. Se cree que el algoritmo es prácticamente seguro si se utiliza un DES
triple, si bien han sido tomados en cuenta ataques teóricos. En años recientes, el cifrado ha sido
5
reemplazado por el Estándar de cifrado avanzado.

En algunos documentos, se hace una distinción entre DES como estándar y DES como el algoritmo
al que se hace referencia como el Algoritmo de cifrado de datos (DEA, por las iniciales en inglés de
Data Encryption Algorithm). Fonéticamente, "DES" es pronunciado o bien como una abreviatura (/�di�
6
�i���s/), o bien como una sigla de una sílaba (/�d�z/).

A.2. Cifrado de llave pública


La criptografía de llave pública es una propuesta de criptografía, utilizada por numerosos algoritmos
criptográficos y criptosistemas, cuyos caracteres distintivos con la utilización de algoritmos de llaves
asimétricas, en lugar de (o además de), los algoritmos de llaves simétricas. Utilizando las técnicas de
criptografía de llave pública-llave privada, se han vuelto utilizables numerosos métodos de protección
de comunicaciones, o de autenticación de mensajes, anteriormente desconocidos. No requieren
de un intercambio inicial seguro, ni de una o varias llaves secretas, como cuando son utilizados
7
algoritmos de llaves simétricas. También puede ser utilizado para crear firmas digitales.

La criptografía de llave pública es una tecnología fundamental, muy utilizada en todo el planeta, y es
la propuesta subyacente a ciertos estándares de Internet, como ser por ejemplo TLS (Transport Layer
8
Security, sucesor de SSL), PGP y GPG.

La técnica distintiva utilizada en la criptografía de llave pública, es el uso de algoritmos de llaves


asimétricas, donde la llave utilizada para cifrar un mensaje no es la misma que la utilizada para
descifrarlo. Cada usuario posee un par de llaves criptográficas — una pública, y una privada. La
llave privada es mantenida en secreto, mientras que la pública puede ser ampliamente distribuida.
Los mensajes son cifrados con la llave pública del recipiente y sólo pueden ser descifrados con la
correspondiente llave privada. Las llaves están relacionadas entre sí en forma matemática, pero la
llave privada no puede ser derivada de la llave pública (por ejemplo, en prácticas actuales o futuras).
El descubrimiento de tales algoritmos fue lo que revolucionó las prácticas de criptografía, hacia
9
mediados de los años '70.

"Estándar de cifrado de datos." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/
Data_Encryption_Standard
"Estándar de cifrado de datos." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/
Data_Encryption_Standard
"Estándar de cifrado de datos." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/
Data_Encryption_Standard
"Cifrado de llave pública." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Public-key_cryptography
"Cifrado de llave pública." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Public-key_cryptography
"Cifrado de llave pública." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Public-key_cryptography

176
Diffie-Hellman

Por el contrario, los algoritmos de llaves simétricas, cuyas variaciones fueron utilizadas durante miles
de años, utilizan un sola llave secreta compartida tanto por el remitente como por el destinatario
(y que también debe ser mantenida en privado, lo que explica la ambigüedad de la terminología
común), tanto para el cifrado como para el descifrado. Para utilizar un esquema de cifrado simétrico,
10
el remitente y el destinatario deben compartir de antemano una llave de manera segura.

Debido a que los algoritmos de llaves simétricas son casi siempre de menor intensidad de cómputo,
es común el hecho de intercambiar una llave utilizando un algoritmo de intercambio de llaves, y
transmitir datos utilizando esa llave y un algoritmo de llaves simétricas. Por ejemplo, esto es lo que
hacen PGP y la familia de esquemas SSL/TLS, y en consecuencia son denominados criptosistemas
11
híbridos.

A.2.1. Diffie-Hellman
El intercambio de llaves Diffie-Hellman (D–H) es un protocolo criptográfico que permite que dos
elementos que no tenían previo conocimiento de la existencia uno del otro, puedan establecer
conjuntamente una llave secreta compartida a través de un canal de comunicación no seguro. Esta
llave puede ser utilizada para cifrar comunicaciones subsecuentes mediante la utilización de un
12
cifrador de llaves simétricas.

A.2.1.1. La historia de Diffie-Hellman


El esquema fue originalmente publicado en 1976 por Whitfield Diffie y Martin Hellman, aunque luego
se descrubrió que había sido inventado algunos años antes por por Malcolm J. Williamson, dentro de
GHCQ (las siglas correspondientes a la Agencia de inteligencia británica), y por ello mantenido en
secreto. En el año 2002, Hellman sugirió denominar al algoritmo como intercambio de llaves Diffie–
Hellman–Merkle, reconociendo los aportes que Ralph Merkle realizó al invento de la criptografía de
13
llave pública. (Hellman, 2002).

Si bien el acuerdo de la llave Diffie–Hellman es en sí mismo un protocolo de acuerdo de llave


anónimo (no es autenticado), ofrece el fundamento para una variedad de protocolos autenticados, y
es utilizado para ofrecer confidencialidad directa de manera perfecta en los modos efímeros de TLS
14
(denominados EDH o DHE, dependiendo de la suite de cifrado).

La hoy ya vencida patente norteamericana 4.200.770, describe el algoritmo y otorga créditos de


15
inventores a Hellman, Diffie, y Merkle.

A.2.2. RSA
En criptografía, RSA (las iniciales en inglés correspondientes a Rivest, Shamir y Adleman, quienes la
describieron públicamente por primera vez; ver más abajo), es un algoritmo para criptografía de llave
pública. Es el primer algoritmo conocido que funciona tanto para firmar como para cifrar, y fue uno de
los primeros avances importantes en criptografía de llave pública. RSA es muy utilizado en protocolos
de comercio electrónico, y se lo considera seguro si se lo establece con llaves adecuadamente
16
extensas, y si se lo utiliza con implementaciones actualizadas.

"Cifrado de llave pública." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Public-key_cryptography
"Cifrado de llave pública." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Public-key_cryptography
"Diffie-Hellman." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Diffie-Hellman
"Diffie-Hellman." Wikipedia (en inglés). 14 de noviembre 2009 http://en.wikipedia.org/wiki/Diffie-Hellman
"Diffie-Hellman." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Diffie-Hellman
"Diffie-Hellman." Wikipedia (en inglés). 14 de noviembre del 2009 http://en.wikipedia.org/wiki/Diffie-Hellman
"RSA" Wikipedia (en inglés) 14 de abril del 2010 http://en.wikipedia.org/wiki/RSA

177
Apéndice A. Estándares de cifrado

A.2.3. DSA
El Algoritmo de firma digital (DSA, por las iniciales en inglés de Digital Signature Algorithm), es un
estándar del Gobierno federal de los Estados Unidos (o FIPS) para firmas digitales. Fue propuesto
en agosto de 1991 por el Instituto nacional norteamericano de tecnología y estándares (NIST, por las
iniciales en inglés de National Institute of Standards and Technology), para ser utilizado en su propio
Estándar de firmas digitales (DSS, por las iniciales en inglés de Digital Signature Standard), indicado
en FIPS 186, y adoptado en 1993. Una revisión menor fue emitida en 1996 como FIPS 186-1. El
estándar ha sido luego expandido en el año 2000 como FIPS 186-2, y por último, en el año 2009,
17
como FIPS 186-3.

A.2.4. SSL/TLS
TLS (Transport Layer Security) y su predecesor, SSL (Secure Socket Layer), son protocolos de
criptografía que ofrecen seguridad a las comunicaciones establecidas sobre redes como Internet.
TLS y SSL cifran los segmentos en toda la capa de transporte de las conexiones de red. Diferentes
versiones de los protocolos están siendo ampliamente utilizadas en diferentes aplicaciones:
navegadores web, correo electrónico, envío de faxes por Internet, mensajerías instantáneas y VoIP
(voz sobre IP) TLS es un protocolo de rastreo estándar IETF, actualizado en RFC 5246, y está basado
en las anteriores especificaciones SSL, desarrolladas por la corporación Netscape.

El protocolo TLS permite que aplicaciones de cliente/servidor puedan comunicarse sobre una red
de una manera diseñada para prevenir escuchas o manipulaciones. TLS pfrece autenticación final y
confidencialidad de las comunicaciones sobre Internet utilizando criptografía. TLS ofrece seguridad
RSA con potencia de 1024 y de 2048 bits.

En la utilización típica de usuario final/navegador, la autenticación TLS es unilateral: sólo el servidor


es autenticado (el cliente sabe la identidad del servidor), pero no viceversa (el cliente permanece sin
autenticarse, o anónimo).

TLS también ofrece soporte para un modo de conexión bilateral más seguro (generalmente utilizado
en una aplicación comercial), en donde ambos extremos de la "conversación" pueden asegurarse
acerca de con quién están comunicándose (ofreciendo la posibilidad de conocer la información del
certificado de la otra parte). Esto es conocido como autenticación mutua, o 2SSL. Una autenticación
mutua necesita que la parte cliente de TLS también posea un certificado (lo que generalmente no
sucede en un escenario de usuario final/navegador). A menos que se utilice TLS-PSK, el protocolo
de Contraseña remota segura (SRP, por las iniciales en inglés de Secure Remote Password), o que
cualquier otro protocolo sea utilizado para ofrecer una autenticación mutua poderosa en la ausencia
de certificados.

Generalmente, la información de la llave y los certificados necesarios para TLS son manipulados bajo
la forma de certificados X.509, que define los campos requeridos y el formato de los datos.

SSL trabaja de forma modular. Ha sido diseñado para ser extensible, con soporte para ser compatible
18
con versiones anteriores y posteriores, y para poder realizar negociaciones entre pares

A.2.5. Criptosistema de Cramer-Shoup


El sistema de Cramer–Shoup es un algoritmo de cifrado de llaves asimétricas, y fue el primer
esquema eficiente que demostró ser seguro frente a ataques de texto elegido cifrado y adaptado,

"Algoritmo de firma digital" Wikipedia (en inglés) 14 de abril del 2010 http://en.wikipedia.org/wiki/Digital_Signature_Algorithm
"Seguridad en la etapa del transporte" Wikipedia (en inglés) 14 de abril del 2010 http://en.wikipedia.org/wiki/
Transport_Layer_Security

178
Cifrado ElGamal

utilizando supuestos estándar de cifrado. Su seguridad está basada en la dificultad de cómputo


(mayormente asumida, pero no probada) de la suposición decisional Diffie–Hellman. Desarrollado
por Ronald Cramer y Víctor Shoup en 1998, es una extensión del criptosistema Elgamal. Pero a
diferencia de éste último, que es muy maleable, Cramer–Shoup agrega elementos adicionales para
asegurar su no-maleabilidad frente a un atacante con recursos. Esta rigidez es lograda mediante la
utilización de una función hash resistente a colisiones y de cómputos adicionales, cuyo resultado es
19
un texto cifrado del doble de la longitud que el texto Elgamal.

A.2.6. Cifrado ElGamal


En criptografía, el sistema de cifrado ElGamal es un algoritmo de cifrado de llaves asimétricas para
criptografías de llave pública, que se basa en el acuerdo de llaves Diffie-Hellman. Fue descrito por
Taher Elgamal en 1985. [1] El cifrado ElGamal es utilizado en el software libre GPG (GNU Privacy
Guard), versiones recientes de PGP, y otros criptosistemas. El Algoritmo de firma digital es una
20
variante del esquema de firma de ElGamal, que no debe ser confundido con el cifrado ElGamal. .

"Criptosistema de Cramer–Shoup" Wikipedia (en inglés) 14 de abril del 2010 http://en.wikipedia.org/wiki/Cramer-


Shoup_cryptosystem
"Cifrado ElGamal" Wikipedia (en inglés) 14 de abril del 2010 http://en.wikipedia.org/wiki/ElGamal_encryption

179
180
Apéndice B. Historial de revisiones
Revisión Wed Jun 9 2010 Eric Christensen
13.0-8 sparks@fedoraproject.org
Removed FireGPG text as that project has been retired.

Revisión Fri May 14 2010 Eric Christensen


13.0-7 sparks@fedoraproject.org
Suplantado el texto de "error" del capítulo de 7-Zip, por el bug 591980.

Revisión Wed Apr 14 2010 Eric Christensen


13.0-6 sparks@fedoraproject.org
Completado el apéndice sobre estándares de cifrado.

Revisión Fri Apr 09 2010 Eric Christensen


13.0-5 sparks@fedoraproject.org
Añadido "Utilizando GPG en Alpine".
Agregado "Utilizando GPG en Evolution".

Revisión Tue Apr 06 2010 Eric Christensen


13.0-4 sparks@fedoraproject.org
Solucionados problemas relacionados con textos imposibles de traducir en para.

Revisión Tue Apr 06 2010 Eric Christensen


13.0-3 sparks@fedoraproject.org
Eliminado el texto de la vulnerabilidad de PackageKit en Fedora 12.

Revisión Fri Nov 20 2009 Eric Christensen


13.0-2 sparks@fedoraproject.org
Agregado el Historial de revisiones al final del documento.
Agregado el apéndice Estándares de cifrado

Revisión Fri Nov 20 2009 Eric Christensen


13.0-1 sparks@fedoraproject.org
Rama de Fedora 13.

Revisión Thu Nov 19 2009 Eric Christensen


1.0-23 sparks@fedoraproject.org

181
Apéndice B. Historial de revisiones

Actualizada a la última versión (una vez más) la sección "Usuarios locales pueden instalar
paquetes que no sean confiables".

Revisión Thu Nov 19 2009 Eric Christensen


1.0-22 sparks@fedoraproject.org
Actualizada a la última versión la sección "Usuarios locales pueden instalar paquetes que no sean
confiables".

Revisión Wed Nov 18 2009 Eric Christensen


1.0-21 sparks@fedoraproject.org
Agregada la sección "Usuarios locales pueden instalar paquetes que no sean confiables".

Revisión Sat Nov 14 2009 Eric Christensen


1.0-20 sparks@fedoraproject.org
Agregada información desde Wikipedia al apéndice Estándares de cifrado
Agregado Adam Ligas a la página de autores por su rol en el desarrollo de las porciones de 7-Zip.

Revisión Mon Oct 26 2009 Eric Christensen


1.0-19 sparks@fedoraproject.org
Actualizada la licencia a CC-BY-SA

Revisión Wed Aug 05 2009 Eric Christensen


1.0-18 sparks@fedoraproject.org
Solucinados los inconvenientes relacionados con el Bug 515043

Revisión Mon Jul 27 2009 Eric Christensen


1.0-17 sparks@fedoraproject.org
Información del proveedor en SPEC reparada.

Revisión Fri Jul 24 2009 Fedora Ingeniería de lanzamiento


1.0-16 rel-eng@lists.fedoraproject.org
Recompilación para https://fedoraproject.org/wiki/Fedora_12_Mass_Rebuild

Revisión Tue Jul 14 2009 Eric Christensen


1.0-15 sparks@fedoraproject.org
Añadido "desktop-file-utils" a BUILDREQUIRES en las especificaciones

Revisión Tue Mar 10 2009 Scott Radvan sradvan@redhat.com


1.0-14

182
Remove more rhel specifics, major review and remove draft, ready for push

Revisión Mon Mar 2 2009 Scott Radvan sradvan@redhat.com


1.0-13
Muchas correcciones menores

Revisión Wed Feb 11 2009 Scott Radvan sradvan@redhat.com


1.0-12
nuevos pantallazos de F11 que reemplazan las anteriores/más viejas

Revisión Tue Feb 03 2009 Scott Radvan sradvan@redhat.com


1.0-11
LUKS específico a Fedora 9 modificado para incluir las versiones posteriores también.
Corrección de los errores 404 en la sección de referencias, principalmente por enlaces incorrectos
a NSA.
cambios de formatos menores.

Revisión Wed Jan 27 2009 Eric Christensen


1.0-10 sparks@fedoraproject.org
Se corrigió la falta de un pantallazo de la configuración del cortafuego.

Revisión 1.0-9 Wed Jan 27 2009 Eric Christensen


sparks@fedoraproject.org
Se repararon items que estaban incorrectos durante la validación. Muchas referencias de Red Hat
se cambiaron a referencias de Fedora.

183
184

You might also like