Archivo de la categoría: Vmware

Cómo crear un cluster Windows Server 2008 R2 sobre Hipervisor vSphere 5. Instalación del Rol Servidor de Ficheros.


Seguimos con nuestro proyecto de Servidor de Ficheros en cluster Windows Server 2008 R2 sobre vSphere 5 (ver este post antiguo y este otro). Por cierto, encontré un “checklist” de cómo montar un Servidor de Ficheros Clusterizado con Windows Server 2008 R2 que os adjunto:

Step Reference
Check box On every server that will be in the cluster, open Server Manager, click Add roles and then use the Add Roles Wizard to add the File Services role and any role services that are needed. Help in Server Manager
Check box Review hardware and infrastructure requirements for a failover cluster. Understanding Requirements for Failover Clusters
Check box Install the Failover Clustering feature on every server that will be in the cluster. Install the Failover Clustering Feature
Check box Connect the networks and storage that the cluster will use. Prepare Hardware Before Validating a Failover Cluster
Check box Run the Validate a Configuration Wizard on all the servers that you want to cluster, to confirm that the hardware and hardware settings of the servers, network, and storage are compatible with failover clustering. If necessary, adjust hardware or hardware settings and rerun the wizard until all tests pass (required for support). Validate a New or Existing Failover Cluster
Check box Create the failover cluster. Create a New Failover Cluster
Check box If the clustered servers are connected to a network that is not to be used for network communication in the cluster (for example, a network intended only for iSCSI or only for backup), then configure that network so that it does not allow cluster communication. Modify Network Settings for a Failover Cluster
Check box Run the High-Availability Wizard and specify the File Server role, a name for the clustered file server, and IP address information that is not automatically supplied by your DHCP settings. Also specify the storage volume or volumes. Configure a Service or Application for High Availability
Check box Add shared folders to the clustered file server as needed. Create a Shared Folder in a Clustered File Server
Check box Test the failover of the clustered file server. Test the Failover of a Clustered Service or Application

Una vez están configurados todos los nodos, hoynos toca crear el servidor de ficheros clusterizado.

Instalación del Rol en los nodos.

Este paso lo podemos realizar antes o despues de instalar la característica “Failover Cluster” en ambos nodos. Si os fijais en el Checklist lo incluye antes de instalar Failover Cluster. Pero bueno, yo lo hago ahora. Añadimos el Rol de File Server:

FILESHARE00001

Incluimos el subrol del Gestor de Recursos de un Servidor de Ficheros:

FILESHARE00002

Nos pide el disco que vamos a monitorizar y los informes que va a generar nuestro Gestor de Recursos:

FILESHARE00003

Posteriormente nos solicita la carpeta donde se van a guardar dichos informes y si queremos que se envien por correo, a quién y a través de que servidor SMTP:

FILESHARE00004

Para terminar, nos hace un breve resumen y lanza la instalación del Rol:

FILESHARE00006

Este proceso lo haremos en todos los nodos del cluster. Os recuerdo que es mejor hacerlo antes de instalar la caractéristica de Failover Cluster. Y ya sabeis que todo, absolutamente todo se puede hacer con PS, así que aqui os dejo unas capturas rápidas de cómo se hace lo mismo:

FILESHARE00013 FILESHARE00012

Best Practices Analyzer (BPA).

Como ya sabemos, y si no lo sabíamos, ahora si, este rol tiene su Best Practices Analyzer (BPA), que nos hará recomendaciones sobre como optimizar nuestra infraestructura de Servidor de Ficheros. Lo ejecutamos:

FILESHARE00007

Y en nuestro ejemplo nos aparecen un par de Warnings:

fileshare0000091

El primero los sulucionamos con este KB ff633453:

fileshare0000092

Lo solucionamos cambiando un valor del registro, a través de PowerShell:

BPA00000001b

Y el segundo con este otro KB ff633467:

fileshare0000093

Lo resolvemos borrando una entrada de registro:

BPA00000002b

Creación del Servicio Clusterizado de Servidor de Ficheros.

Ya estamos a punto de terminar. Asi que desde la consola de gestión de Failover Cluster, dentro de la carpeta de Servicios y aplicaciones configuraremos un nuevo Servicio:

FILESHARE00020

Seleccionaremos el servicio de “File Server”:

FILESHARE00021

Configuraremos el punto de acceso del cliente con su dirección IP

FILESHARE00022

Y para finalizar configuraremos el disco que vamos a utilizar (Datos):

FILESHARE00023

Finalizamos y nos da la opción de ver el informe que se ha generado:

FILESHARE00024

Puede ocurrirnos que nos de el siguiente evento de error y nos acojonemos un poco, impidiéndo que cremos este servicio clusterizado:

FILESHARE00025

Pero como casi siempre, lo podemos solucionar. Por ejemplo de estas dos maneras:

  • Por delegación de permisos.- Delegar el permiso de crear objetos de tipo “Computer” sobre la Unidad Organizativa donde se encuentren los componentes del cluster a través del Wizard de Directorio Activo.
  • Dar permisos antes de crear el Servicio Clusterizado.- Es lo mismo pero manual. Nos vamos a la OU donde se encuentran ubicados los nodos del cluster y damos permisos de crear objetos de tipo “computer” al Servidor Virtual del Cluster que hemos creado.

Y ya tendremos nuestro Servidor de Ficheros Clusterizado en Windows Server 2008 R2 sobre hipervisor Vmware vSphere 5.0. Mañana creamos un recurso compartido rapidito y terminamos este “mini-proyecto”. Que tengais buena semana.

Bibliografía:

Waclaw Chrabaszcz

Technet LATAM.

Anuncios

Cómo crear un cluster Windows Server 2008 R2 sobre Hipervisor vSphere 5. Creación del Failover Cluster.


Continuando con la creación del cluster Windows Server 2008 R2 sobre vSphere 5 (ver este post antiguo). Una vez están configurados todos los nods, hoy toca crear dicho cluster. Ya vimos en otra serie posts como crear un Failover Cluster para Hyper-V y Windows Server 2012, asi que esto es mas de lo mismo (ver este post y este segundo post), y, para hacerlo nuevo y distinto, todo será a través de Powershell.

1 Configuración inicial:

Ya lo vimos en el post anterior pero en ella detallamos los siguientes puntos:

  • Configuración de los servidores. Instalación de sistema operativo y hotfixes.
  • Configuración de las redes (privada y pública) y la prioridad de las mismas (publica sobre privada).CreacionFailoverCluster000001
  • Configuración de los discos (Quorum y Datos) a través de nuestro Hipervisor ESXi, ya sean iSCSI o FC (en modo RAW).
  • Presentación de los discos.

CreacionFailoverCluster000002

2 Instalación de requisitos.

  • Instalar Feature Failover Cluster en todos los nodos del cluster. Importaremos el módulo de Server Manager para poder añadir la característica de Failover Clustering.

CreacionFailoverCluster000003

Posteriormente, añadirermos el módulo de Failover-clustering para crear nuestro Cluster y empezar a gestionar recursos:

CreacionFailoverCluster000004

3 Validación de configuración.

Al igual que en modo gráfico podemos validar si todos y cada uno de nuestros nodos son válidos para la creación de un Failover Cluster. En nuestro caso tendremos el servidor naranja (servidor_g) y el servidor verde (servidor_h).

Ejecutamos el cmdlet Test-Cluster -node <nodo1>, <nodo2>

CreacionFailoverCluster000010

Nos aparecerá el resultado, en mi caso, con ciertos warnings y la ubicación del fichero con el informe:

CreacionFailoverCluster000011 CreacionFailoverCluster000012

Que, por defecto, nos lo ubicará en c:\windows\Cluster\Reports :

CreacionFailoverCluster000013

En este informe, como muy buen ejemplo, nos indica que uno de los dos nodos, concretamente el nodo verde, tiene dos hotfixes menos que el nodo naranja.

CreacionFailoverCluster000014

Si hacemos un Windows Update nos aparece lo siguiente:

CreacionFailoverCluster000015

Se instalan y volvemos a pasar el test con resultado óptimo.

4 Creación del Failover Clustering.

Procedemos a crear el Failover Clustering ejecutando el cmdlet New-cluster -name <Nombre> -Node <nodo1>,<nodo2> -StaticAddress <Dirección IP del Cluster>

CreacionFailoverCluster000020

Una vez creado, obtenemos la información de nuestro Failover-clustering (datos que podremos modificar para tunnear nuestra configuración mas adelante):

CreacionFailoverCluster000019

Al crear el Failover-Cluster, todos aquellos recursos como puedan ser NICs y Discos que tengan los nodos se incluyen en él. Estos son los recursos del nuestro Cluster:

CreacionFailoverCluster000021

Si nos fijamos, en el proceso de creación a los discos que ha encontrado y añadido al Cluster los ha nombrado Cluster Disk 1 y Cluster Disk 2. Procedemos a renombrarlos a nuestro gusto:

$NewName = Get-ClusterResource ‘Cluster Disk 1’;$NewName.name = ‘Quorum’

CreacionFailoverCluster000022

Lo podemos ver desde la consola gráfica cómo queda:

CreacionFailoverCluster000023

Lo mismo ocurre con las tarjetas de red, las renombramos nuevamente como deseemos, aunque se complica un poquito.

({Get-ClusterNetwork | Where-Object {$_.name -eq ‘Cluster Network 1′}}.name =’Public’

CreacionFailoverCluster000024

Y, para finalizar, nuestro sistema de Quorum o definición de mayoría de votos. Ejecutamos el cmdlet Get-ClusterQuourm | fl * donde nos dirá qué tipo de mayoría tenemos:

CreacionFailoverCluster000025

Si no es la que queremos, como es el caso ya que ha cogido como disco de Quorum el disco que hemos denominado “Datos”, pues lo cambiamos: Set-ClusterQuorum -NodeAndDiskMajority ‘Quorum’

CreacionFailoverCluster000026

Pues hasta aqui la configuración básica.

5 Validación de la instalación.

Para finalizar procedemos a verificar y validar nuestra configuración de Cluster:

CreacionFailoverCluster000027

Pues todo fantástico. Que tengais muy buena semana.

.

Bibliografía:

Pablo A. Ahumada. Me ha parecido un post muy completo.

Technet. Comandos de Powershell para Failover Clusters.

Technet. Configuración de Servicios Clusterizados con Powershell.

Technet. Comandos mapeados de Cluster.exe a Powershell.

Cómo crear un cluster Windows Server 2008 R2 sobre Hipervisor vSphere 5. Creación y preparación de Servidores.


ClusterServidorFicheros000071Uno de mis últimos proyectos es montar un nuevo servicio de Servidor de Ficheros en la empresa en la que estoy trabajando. He tratado de mil formas de montarlo con Windows Server 2012 R2 pero al final vamos a montarlo con Windows 2008 R2. Os dejo algunas de las muchas ventajas que tiene uno sobre el otro:

Por otro lado, antes de montar este clúster conviene leerse la documentación oficial y algún que otro blog de Vmware, Hyper-V, RHEL o XenServer para crear un Failover Cluster de Microsoft sobre plataformas de virtualización. Os dejo este link con el documento  de vmware vSphere 5.

Este sería un gráfico típico de un Cluster entre dos servidores virtuales situados en distintos hosts de virtualización:

ClusterServidorFicheros000069

En este ejemplo, he creado en nuestra plataforma de virtualización de Vmware Vsphere 5.5 los 2 servidores con las siguientes características:

FILESHAREA.rob.com

  • DATASTORE: 69 HITACHI AMS2300
  • Nodo del Cluster: ESXIPO.rob.com
  • Disco C: 40 GB
  • 4 GB de memoria RAM
  • 4 vCPU
  • NIC’S:
    • NIC 0: PUBLIC  IP: por ejemplo 10.11.0.117
    • NIC 1: PRIVATE IP: por ejemplo 192.168.0.1
  • Instalación de parches de seguridad hasta el día de la fecha.

FILESHAREB.bme.com

  • DATASTORE: 17 HITACHI AMS2300
  • Nodo del Cluster: ESXIPM.rob.com
  • Disco C: 40 GB
  • 4 GB de memoria RAM
  • 4 vCPU
  • NIC’S:
    • NIC 0: PUBLIC IP: por ejemplo 10.11.0..118
    • NIC 1: PRIVATE IP: por ejemplo 192.168.0.2
  • Instalación de parches de seguridad hasta el día de la fecha.

Instalamos los 2 servidores Virtuales con Windows Server 2008 R2 Enterprise o Datacenter de una forma limpia. Lo ideal es tirar de alguna plantilla ya creada pero para los menos organizados hacemos una instalación nueva. Podemos crearlos en cualquiera de las dos versiones, o ServerCore, mucho mas limpia y sin sobrecarga de la interface gráfica (GUI), o con la versión con GUI. Dependerá de nuestras necesidades y de nuestros recursos.

Como habeis podido observar, dispongo de una cabina de discos HITACHI AMS2300, donde mostraremos a nuestros Host de virtualización las siguientes LUNs:

  • Quorum.- Suele ser de unos 500 MB, mínimo.
  • Datos.- Vamos a mostrar una de 500 GB.

Entramos en la configuración de cada servidor de ficheros y añadimos un nuevo disco:

ClusterServidorFicheros000001

Indicamos que va a ser un disco en modo  RAW:

ClusterServidorFicheros000002

Nos aparecerán las LUNs que desde Almacenamiento nos han mostrado, la de 500 MB y la de 500 GB:

ClusterServidorFicheros000003

Seleccionamos que queremos realizar el mapeo de la LUN en un disco VMDK y que se aloje en el mismo DataStore donde reside el Servidor:

ClusterServidorFicheros000004

Posteriormente, seleccionamos el modo de compatibilidad, en nuestro caso como lo vamos a tratar como si fuese un servidor físico con su controladora, seleccionaremos “Fisico”:

ClusterServidorFicheros000005

Y, para terminar, seleccionaremos el drive SCSI que no deberá estar utilizado por Vmware. En nuestro caso hemos utilizado las SCSI (1:0 y 1:1). Posteriormente, en la configuración del resto de nodos necesitaremos esta información:

ClusterServidorFicheros000006

Apuntaremos (Siguiendo recomendaciones de Vmware para no utilizar el puerto SCSI 0) :

  • SCSI 1:0  Para el disco de Quorum.
  • SCSI 1:1  Para el disco de Datos.

Una vez realizada esta selección nos aparecerá la pantalla de resumen y …. ya tendremos mapeadas las LUNs al servidor. Podremos ver que nos han aparecido tanto el nuevo disco como un nuevo controlador SCSI y, al ser Windows Server 2008 R2, es LSI Logic SAS:

ClusterServidorFicheros000006b

Y, ojo, con la política de compartir discos virtuales ya que, normalmente, se queda en “none” y, como comprendereis, para nuestro ejemplo tiene que estar en “Physical”:

ClusterServidorFicheros000070

Todo esto habrá que hacerlo para todos y cada uno de los servidores que vamos a incluir en nuestro Cluster. Una vez dentro de la configuración del siguiente nodo del cluster en la consola del Virtual Center, procederemos a añadir el nuevo hardware y en todos estos nuevos nodos, seleccionaremos la siguiente opción para el tipo de disco:

ClusterServidorFicheros000008

Seleccionaremos uno por uno cada discos que se han “mapeado”, que en nuestro caso los ha renombrado a FILESHAREA.ROB.com_1.vmdk y FILESHAREA.ROB.com_2.vmdk:

ClusterServidorFicheros000009

Volvemos a seleccionar los nodos SCSI virtuales:

ClusterServidorFicheros000011

Y nos aparecerá la ventana de resumen. Continuaremos seleccionado cada uno de los discos, que estarán en el Datastore en donde esté alojado el servidor que previamente hemos configurado así como el controlador SCSI que pertenece a cada uno de los discos que hemos añadido al mapeo de LUN. Comprobamos que la configuración SCSI está indicada en Physical.

Una vez terminado, podemos visualizar en ambos nodos del cluster que aparecen los discos para la creación del Cluster:

ClusterServidorFicheros000010

Para terminar, tenemos que recordar que hay que crear una regla de “Anti-Afinidad” para que no estén los dos nodos del cluster en el mismo Host de virtualización. Desde nuestro Virtual Center, nos situamos sobre el Cluster de Hosts de virtualización, botón derecho y “Editar propiedades”.

ClusterServidorFicheros000072

Seleccionamos la regla y creamos una que vamos a denominar “Anti-Afinidad nodos del Cluster de ficheros”, para que no estén ambos nodos del Cluster en el mismo host de virtualización. En el tipo seleccionaremos en nuestro caso “Separar Máquinas Virtuales” y seleccionaremos nuestros servidores:

ClusterServidorFicheros000073

Normalmente estas reglas tienen que funcionar pero si queremos asegurarnos del estricto cumplimiento de las reglas de afinidad, tenemos que seguir el siguiente procedimiento:

ClusterServidorFicheros000074

En opciones avanzadas de la configuración del servicio DRS de nuestro Cluster de Hosts de virtualización incluiremos una clave denominada ForceAffinePoweron con el valor de 1.

Ya tenemos preparado nuestros servidores con Windows Server 2008 R2 dispuesto a crear la semana que viene el Cluster de Ficheros con servicio DFS.

Buen fin de semana, jejeje.

Bibliografia:

Blog de eManu.

vExpert – Aplicación en App Store de Apple.


Desde aqui aprovecho para felicitar a uno de los gurus en el mundo de la virtualización, Jose Maria Gonzalez, que acaba de lanzar una aplicación para ipad, iphone, etc., en el App Store: vExpert

Tuve la suerte de tenerlo como profesor en un curso de Vmware Vsphere 4 y os lo recomiendo, no solo porque tiene tablas enseñando, porque conoce a un altisimo nivel el producto, si no porque vive y le apasiona el mundo de la virtualización y la tecnología.

 Os dejo link de su Blog.

Vmware Compliance Checker. Securizar nuestra infraestructura de Virtualización Vsphere.


Buenos días,
Hoy vamos a hablar de una herramienta “gratuita” facilitada por Vmware para verificar la seguridad y el fortalecimiento en nuestros hosts Vmware, Vmware Compliance Checker. Lo podemos descargar desde aqui.

Esta herramienta nos recomienda una serie de “mejores prácticas” de seguridad, a través de un detallado informe, a aplicar en nuestra infraestructura Vsphere de virtualización. Como muestra, un botón:
Además, podemos acceder a una completa serie de guías para securizar nuestra infraestructura.

La instalación es muy sencilla, el clásico “siguiente, siguiente, siguiente”. Al arrancar el aplicativo nos aparece la siguiente ventana:

Donde configuraremos nuestros Hosts o Vcenter y credenciales o dónde podremos ver los informes generados en el tiempo.

Ya la he visto referenciada en los Blogs de El Bujarra, en las Vmware Communities, en los Foros de Virtualización en Español, o en Wetcom, donde seguro que podéis obtener mayor información (son algunas de las que suelo seguir).

Nos vemos.

>Curso Online gratuito de vmware sobre transición a esxi


>

Buenos dias,

Desde Argentina, en el blog del portal wetcom, me llega esta buena noticia, la posibilidad de hacer un curso online gratuito de 4 horas sobre la transición a esxi. Este es el link. Aqui!!!

Ademas, se entregará gratuitamente a los que completen el entrenamiento y la encuesta final un libro sobre ESXi escrito por Dave Mishchenko, colaborador de Vmware.

No hace falta recordar que la política de Vmware era dejar únicamente el producto Esxi, ya que se optó por dejar de desarrollar la versión Esx hace tiempo.

Espero que os guste,

Un saludo,

Upgrade vSphere ESXi4.0 a ESXi4.1 manualmente.


Buenos días,

Empezamos el mes con este mini procedimiento de actualización de un VMware vSphere ESXi 4.0 a ESXi 4.1.

Nos descargamos la herramienta vía comando de vSphere, VMware vSphere VCLI, lanzamos una consola y en cuatro pasos hemos terminado. Ejecutamos el siguiente comando:

1 vihostupdate.pl –server <IP o Nombre del Host ESXi> –install –bundle “<ruta\FICHERO_UPGRADE>” -B ESXi410-GA-esxupdate

Como podemos ver en el Cliente vSphere realiza las tareas oportunas:

2 Poner en modo mantenimiento. Este es fácil.

3 vihostupdate.pl –server <IP o Nombre del Host ESXi> –install –bundle “<ruta\FICHERO_UPGRADE>” -B ESXi410-GA

Ahora vemos todos los pasos que ha realizado en el vSphere client:

4 Reiniciamos el Host y ya está.

No se os olvide sacar del modo mantenimiento.

C’est facile!!! O algo asi.

Cloud Computing – Anticipo de la campaña de Vmware


Poniendonos ya las pilas, os dejo un par de presentaciones de Vmware sobre Cloud Computing:

…… Ya están aqui!!!!

Medición del rendimiento – ¿Cómo detectar problemas de latencia en disco en VMware vSphere ESXi?


Continuando con las mediciones del rendimiento de nuestros servidores, llevaba tiempo para sacar un Post sobre cómo detectar problemas de latencia en discos, tanto FC, iSCSI como NFS, al menos desde que hice el curso para la obtención de la certificación VCP-410 y, hoy, al hilo de un artículo aparecido en el Blog de la Virtualización en Español, de nuestro gran maestro Jose María Gonzalez, retomo una de sus enseñanzas.

¿Cómo detectar problemas de latencia en disco de un ESXi? Dentro de nuestra herramienta de rendimiento, nos fijaremos en los siguientes contadores:

  • Kernel command latency.- tiempo medio empleado por el VMkernel para procesar un comando SCSI. Un número alto en este contador, (entre 2 a 3 milisegundos, puede significar:
    • Que la cabina tenga un exceso de trabajo
    • O que el servidor ESX/ESXi tenga un exceso de trabajo.
  • Physical device command latency.- Mide el tiempo medio que el dispositivo físico (disco) necesita para completar un comando SCSI. Un número alto en este contador (depende d la cabina, pero, en general, este valor está entre 15 y 20 milisegundos), puede significar dos cosas:
    • O la cabina va muy lenta.
    • O la cabina tiene un exceso de trabajo.

Vayamos a un ejemplo real. Configuro el primer contador (Kernel command latency) para mi cabina de discos y este es el resultado:

En este caso nos fijamos en el último dispositivo, que es el que no está dando unos valores anómalos. Como se puede apreciar, la SAN es una HITACHI.

Por otro lado, ahora nos fijamos en el segundo contador, (Physical device command latency). Este valor, en principio, nos tiene que venir dado por el fabricante de la cabina, en mi caso HITACHI, pero yo no lo he conseguido. Me voy a basar en los estándares.

En este caso tenemos que los siguientes discos:

  • t10.HITACHI_770501211902.- Este disco está por encima de los 20 milisegundos.

  • t10.HITACHI_770501211901.- Este disco ronda los 11 milisegundos en media con ligeros picos por encima de los 20 milisegundos.

¿Cómo seguir desde aquí? Bien, sabemos qué maquinas componen la citada LUN, en mi caso contiene las siguientes Máquinas Virtuales (VM):

Habría que ir moviendo una a una cada VM a otra LUN y verificar cuál es la que está provocando este fallo.

El próximo día Iperf en modo gráfico.

Un saludo,

Certificación VCP-410 de Vmware.


Buenas,

Mi primera certificación en mi andadura en el mundo de la Virtualización, VCP-410. Suena como si estuvieses en StarWars, R2D2 y esas cosas, pero no.

Me ha parecido muy bueno y duro el conseguir la certificación. Primero, el curso, impartido por Jose Maria Gonzalez, gurú en esto de la virtualización. El hecho de que tengas que hacer obligatoriamente un curso para certificarte inicialmente parece un lastre, pero, una vez acabado, se agradece y mucho.

También me ha ayudado libros adquiridos en otros bloggers como Josep Ros o documentación en Diego Cabai. Otros gurus.

Y, segundo, el examen. Me dí de margen un par de semanas después del curso y la verdad es que la última estuve empollando todos los días hasta las tantas de la noche. Luego, en el centro de examenes, te hacen una foto, te registran, vamos, lo habitual.

Resultado, certificado. Aunque el resultado del examen es inmediato, un 86% de respuestas correctas, han tardado un mes en darme oficialmente el resultado.

Puede parecer que es algo de “frikis” esto de sacarse estas certificaciones pero, personalmente, creo que es un valor añadido a tus conocimientos y experiencia, así como un reconocimiento a nivel mundial de lo que sabes y lo que eres. Vamos, todo lo contrario que suele pasar en tu puesto de trabajo.

A por la próxima!!!!

masrobeznoquenunca

Comparto lo que hago y lo que veo.

El camino de un ITPro

El camino de un ITPro

adumont

Just another WordPress.com weblog

Marco Antonio's space

Una mirada dentro de mis ratos libres...

Marcelo Ruiz

Network and SocialMedia

A Digital Frontier...

Blog personal de Robert Garrandés Simancas ("Versión Beta")

enero11

Literatura para romper el tiempo.

A %d blogueros les gusta esto: