Trabajo como Autor y Editor en XCuriosidades, además de encargarme de la parte técnica. Soy un Desarrollador Web con muchos años trabajando en el ramo.
Nginx, un servidor web de código abierto cuyo objetivo es el poder realizar múltiples operaciones simultaneas, tener un alto rendimiento y un bajo consumo de memoria, le ha arrebatado a ISS de Microsoft (Internet Information Server) el segundo lugar como el servidor web más utilizado. Las estadísticas proporcionadas por Netcraft indican que le ha quitado mercado a todos los demás sistemas de servidores web, competidores como Apache, Microsoft y Google perdieron mercado.
Nginx ahora funciona en alrededor del 25% de los 1,000 sitios web más ocupados, incluyendo Facebook, Groupon, Hulu, Dropbox y WordPress. De acuerdo a Netcraft Nginx ahora corre en un 12.18% de todos los sitios web activos, estos son alrededor de 22.2 millones de sitios, mientras que Microsoft actualmente funciona en un 12.14% de los sitios, esto serían 22.1 millones de sitios.
Aunque Apache aún se encuentra cómodamente en la cima, corriendo un 57.93% de todos los sitios web activos para un total de alrededor de 105.7 millones, también ha experimentado una baja en su mercado. Incluso Google vio su mercado caer de 8.13% a 7.9%.
En Netcraft, se consideran sitios web activos a todos los sitios web que cuentan con contenido original, si se toma en consideración todos los nombres de dominio existentes, los cuales serían más de 582 millones de dominios, Apache tiene un 64.9%, mientras que Microsoft tiene un 14.46% y Nginx un 9.63%.
Todos los organismos vivientes balancean un cierto tipo de presupuesto – asignando energía a diversas partes de su cuerpo para sustentar los procesos esenciales para la vida. A través de su vida, un organismo puede re-balancear este presupuesto para gastar más energía en unos ciertos procesos que en otros. De acuerdo a cómo gasta un organismo su energía determina, en gran parte, su habilidad para sobrevivir en el mundo, investigadores que estudian “bioenergética” están modelando el uso de energía en organismos para entender como las poblaciones crecen y evolucionan.
Investigadores en el MIT (Massachusetts Institute of Technology) han elaborado un modelo de cómo la energía es gastada en los organismos más pequeños y más simples de la tierra, que van desde bacterias unicelulares a microbios multi-celulares. El modelo divide los posibles usos de energía de un organismo en dos amplias categorías: crecimiento y reproducción, y mantenimiento y reparación. Basados en el tamaño de un organismo dado, el modelo predice precisamente que fracción de la energía es gastada en cada categoría.
Los científicos dicen que esta información podría ser crucial para determinar como las poblaciones de bacterias y otros microbios crecen y se esparcen en los océanos y en el suelo. El modelo también le ayuda a los investigadores a interpretar cambios evolutivos mayores: Conforme los microbios evolucionen para volverse más complejos, lo más probable es que reharán el presupuesto de energía para soportar nueva maquinaria celular.
Los investigados publicaron sus resultados en la edición del 26 de diciembre de “Proceedings of the National Academy of Sciences” (Procedimientos de la Academia Nacional de Ciencias).
Mick Follows, coautor de la revista académica y un científico investigador en el Departamento de las Ciencias Terrestres, Atmosféricas y Planetarias del MIT, dice que todos los organismos, en algún punto, enfrentan la decisión de reparar o reproducirse, algunos invierten más energía en un proceso que en el otro.
“Puedes imaginarte que una estrategia vital para un organismo podría ser: ‘No voy a gastar nada en mantenimiento, solo voy a reproducirme tan rápidamente como sea posible y espero hacer tantas copias de mí que algunas de ellas lo lograrán,'” dice Follows. “Y la estrategia opuesta es, ‘Bueno, voy a invertir menos en reproducción, y realmente cuidarme y mantenerme en una buena condición y no morir si puedo evitarlo.'”
El estudiante graduado de Follows, Christopher Kempes desarrolló un modelo matemático que predice, ampliamente, cómo los microbios reparten la energía. Kempes creó ecuaciones que representan que tan rápido crece un microbio dado, así como la cantidad total de comida que un organismo puede convertir en energía. El equipo, junto con la científica investigadora Stephanie Dutkiewicz, compilaron los datos de otros investigadores que midieron el peso de varios microbios sobre su tiempo de vida, incluyendo bacterias unicelulares y pequeños camarones multi-celulares.
El equipo del MIT combinó los datos con sus ecuaciones, y encontró algunos patrones interesantes entre los microbios.
Para el microbio de los intestinos Escherichia coli (E. Coli), casi cada onza de energía se gasta en la reproducción. A través de su vida, una sola bacteria E. Coli crece y se divide continuamente, colonizando rápidamente un conducto estomacal o una placa de petri con millones de células simples. La ligeramente más compleja alga verde exime una trayectoria similar, reproduciéndose hasta el final antes de re-enfocar su energía hacia dentro, en procesos que mantienen la maquinaria celular. En Contraste, los pequeños crustáceos milimétricos están más auto-involucrados, gastando la mayoría de su vida manteniendo complejos componentes antes de gastar energía en reproducción.
La tendencia general, dice Follows, parece ser que mientras más grande y más complejo es un organismo, más energía gasta buscando mantenerse a sí mismo, o reparando estructuras internas. Los organismos más pequeño y simples se enfocan más en crecer y proliferar, contando en sus grandes números para incrementar sus posibilidades de supervivencia.
“Puedes darte una idea de como vas a partir de células muy sencillas que pueden crecer rápido,” dice Follows. “Conforme agregan maquinaria, invierten más en mantenimiento. Y entonces en cierto punto, la estrategia también se vuelve muy intensiva en términos de energía. Pero en ese punto, la multicelularidad te permite compartir energía y recursos con otras células.”
Estas tendencias, especula el equipo, podría reflejar los amplios cambios evolucionarios entre las procariotas (organismos que no tienen un núcleo u orgánulos pegados a las membranas) unicelulares como la E. coli, procariotas más complejas como las algas verdes, y organismos multi-celulares simples como los pequeños camarones. A través de su modelo, los investigadores pueden determinar el tamaño más pequeño de los organismos simples, basados en como usan su energía, así como el tamaño al cual los organismos evolucionan para volverse multi-celulares.
“Esas transiciones evolucionarias ocurren en nuestro modelo en etapas muy predecibles,” dice Kempes. “Esas transiciones permiten a los organismos volverse más grandes, y esa es la historia de como la vida se volvió tan compleja.”
Steven Allison, un profesor asistente de ecología y biología evolucionaria en la Universidad de California en Irvine, dice que el nuevo modelo del grupo puede ser usado para evaluar cómo todos los organismos, grandes y pequeños, gastan energía.
“La innovación clave aquí es que el uso de energía y recursos de los microbios puede cambiar a través de sus ciclos de vida,” dice Allison. “Estas diferencias no han sido apreciadas antes. Esto significa que podría ser posible predecir la tasa de crecimiento de la población basada en el tamaño de las células y su tipo.”
El equipo planea incorporar el modelo matemático para la energía de un solo organismo en modelos de poblaciones a gran escala. Follows dice que conociendo cómo un solo organismo reparte la energía podría ayudar a investigadores a modelar de manera más precisa cómo los microbios se dispersan a través de un entorno. Por ejemplo, si un científico construye un modelo para representar bacterias en el océano, la población podría verse muy diferente dependiendo de si el investigador programa las bacterias a gastar toda su energía en reproducción o en reparación.
“En cierto sentido, los modelos actuales de Fitoplancton (organismos con capacidad fotosintética que viven dispersos en el agua) en el océano no usan este tipo de información,” dice Follows. “Necesitamos mejorar esos modelos.”
Cuando el Kinect de Microsoft – un dispositivo que le permite a los usuarios de Xbox controlar juegos con señas físicas – llegó al mercado, los científicos de computadoras inmediatamente comenzaron a hackearlo. El Kinect, una barra negra de plástico de alrededor de 28 centímetros de ancho y con un buscador infrarrojo de rango y una cámara dentro, produce un mapa visual de la escena ante él, con información sobre la distancia hacia objetos individuales. Tan solo en el MIT (Massachusetts Institute of Technology) los investigadores han utilizado el Kinect para crear una interfaz de computadora al estilo de “Minority Report”, un sistema de navegación para helicópteros robóticos miniatura y un transmisor de video holográfico, entre otras cosas.
Ahora imagina un dispositivo que provee información de profundidad más precisa que el Kinect, tiene un rango mayor y trabaja bajo todas las condiciones de iluminación – pero es tan pequeño, barato y eficiente en su consumo de energía que podría ser incorporado en un teléfono celular por un pequeño costo extra. Ésta es la promesa del trabajo reciente de Vivek Goyal, profesor de Ingeniería Eléctrica, y su grupo en el laboratorio de electrónica del MIT.
“La adquisición de información tridimensional se ha convertido en un tema realmente popular,” dijo Goyal. “En la electrónica para consumidores, la gente está muy interesada en la tercera dimensión para la comunicación inmersiva, pero también están interesados en la tercera dimensión para la interacción humana con computadoras.”
Andrea Colaco, un estudiante graduado del Laboratorio de Medios del MIT y uno de los co-autores en una revista académica que será presentada en la Conferencia Internacional de Acústica, Habla y Procesamiento de Señales del IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) en Marzo, apunta que las interfaces gestuales hacen mucho más fácil que personas múltiples interactúen con una computadora a la vez – como en los juegos de baile que el Kinect ha popularizado.
“Cuando estás hablando de una sola persona y una máquina, ya hemos optimizado la forma en la que lo hacemos,” dice Colaco. “Pero cuando es un grupo, hay menos flexibilidad.”
Ahmed Kirmani, un estudiante graduado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional y otro autor de la revista académica agrega: “Las pantallas tridimensionales están muy avanzadas en términos de tecnología comparadas con las cámaras tridimensionales. Tienes disponibles estas pantallas tridimensionales de alta resolución que tienen tasas de cuadros por segundo en tiempo real.”
“Sentir es siempre difícil,” añade, “y mostrar es fácil.”
Adentrándonos
Al igual que otros sofisticados dispositivos que sienten profundidad, el sistema de los investigadores del MIT utilizan el “tiempo de vuelo” de partículas de luz para medir la profundidad: Un pulso de luz láser infrarrojo es disparado hacia la escena, y la cámara mide el tiempo que le toma a la luz regresar de los objetos a diferentes distancias.
Los sistemas tradicionales de tiempo de vuelo usan uno de dos acercamientos para construir un “mapa de profundidad” de una escena. LIDAR (Light Detection and Ranging – Detección de Luz y Rango) usa un haz láser de escaneo que dispara una serie de pulsos, cada uno corresponde a un punto en una malla, y separadamente mide su tiempo de vuelta. Pero esto hace la adquisición de datos más lenta, y requiere un sistema mecánico para redirigir continuamente el láser. La alternativa, empleada por las llamadas cámaras de tiempo de vuelo, es iluminar toda la escena con pulsos de láser y utilizar un banco de sensores para registrar la luz que regresa. Pero los sensores capaces de distinguir pequeños grupos de partículas de luz – fotones – son caros: Una cámara típica de tiempo de vuelo cuesta miles de dólares.
En contraste, el sistema de los investigadores del MIT utiliza un solo detector de luz – una cámara de un píxel. Pero utilizando trucos matemáticos inteligentes, puede lograr crear el mapa de profundidad de la escena disparando el láser un número limitado de veces.
El primer truco es uno común en el campo de la sensibilidad comprimida: La luz emitida por el láser pasa a través de una serie de patrones de luz y cuadros oscuros generados aleatoriamente, como un tablero de damas irregular. Impresionantemente, esto provee suficiente información para que los algoritmos puedan reconstruir una imagen bi-dimensional visual de las intensidades de la luz medidas por un solo píxel.
En experimentos, los investigadores encontraron que el número de destellos de láser – y el número de patrones del tablero de damas – que necesitaban para construir un mapa de profundidad adecuado era alrededor de 5% el número de píxeles en la imagen final. Un sistema LIDAR, en contraste, necesitaría enviar un pulso de láser por cada píxel.
Para agregar la tercera dimensión crucial al mapa de profundidad, los investigadores usan otra técnica, llamada procesamiento de señal paramétrica. Esencialmente, asumen que todas las superficies de la escena, como sea que estén orientadas con respecto a la cámara, son paneles planos. Aunque esto no es estrictamente verdadero, las matemáticas de la luz que rebota de superficies planas es mucho más sencilla que la de la luz que rebota en superficies curvas. El algoritmo paramétrico de los investigadores encaja la información sobre la luz que regresa al modelo de panel plano que mejor se le ajusta, creando un muy preciso mapa de profundidad con un mínimo de información visual.
Lo barato
De hecho, el algoritmo le permite a los investigadores salirse con la suya aún con hardware relativamente crudo. Su sistema mide el tiempo de vuelo de fotones utilizando un fotodetector barato y un convertidor de análogo a digital ordinario – un componente ya encontrado en todos los teléfonos celulares. Al sensor le toma alrededor de 0.7 nanosegundos registrar un cambio a su entrada.
Eso es tiempo suficiente para que la luz viaje 21 centímetros, dice Goyal. “Entonces para un intervalo de profundidad de 10 y medio centímetros – estoy dividiendo entre dos por que la luz tiene que ir y volver – toda la información se está juntando,” dice. Sin embargo, debido al algoritmo paramétrico, el sistema de los investigadores puede distinguir objetos que solo tienen una diferencia de profundidad de 2 milímetros. “No parecería que se puede obtener toda esta información fuera de esta señal cuando se pone junta,” dice Goyal.
El algoritmo de los desarrolladores es muy sencillo de ejecutar en el tipo de procesadores encontrados ordinariamente en un teléfono inteligente (smartphone). En contraste, para interpretar los datos provistos por el Kinect, el Xbox requiere del poder extra de una unidad de procesamiento gráfico, una poderosa pieza de hardware de propósito específico.
“Ésta es una manera de adquirir información de profundidad completamente nueva,” dice Yue M. Lu, un profesor asistente de ingeniería eléctrica de la Universidad de Harvard. “Es una manera muy inteligente de obtener esta información.” Un obstáculo para el uso del sistema en un dispositivo de mano, especula Lu, podría ser la dificultad de emitir pulsos de luz de la intensidad adecuada sin terminarse la batería.
Pero la intensidad de la luz requerida para obtener lecturas precisas de profundidad es proporcional a la distancia de los objetos en la escena, explica Goyal, y las aplicaciones que sería más probable que resultaran útiles en un dispositivo portátil – como interfaces de gestos – lidian con objetos cercanos. Además, explica, el sistema de los investigadores hace un estimado inicial de la distancia de los objetos y ajusta la intensidad de los pulsos de luz subsecuentes según sea necesario.
En cualquier caso, el gigante de las telecomunicaciones Qualcomm ve la suficiente promesa en la tecnología que ha seleccionado a un equipo formado por Kirmani y Colaco como uno de los ocho ganadores – de 146 que aplicaron a un grupo de universidades selectas – para apoyarlos con USD$100,000 a través de su programa de innovación del 2011.
Desde el 2010 un grupo de piratas han intentado que sus creencias sean reconocidas como una religión oficial en Suecia. Después de que sus peticiones fueron negadas varias veces, la Iglesia del Kopimismo – cuyos símbolos sagrados son el CTRL+C y CTRL+V – ha sido aprobada ahora por las autoridades como una religión oficial. La iglesia espera que su estado oficial acabará con el estigma legal que rodea el intercambio de archivos. Kopimi viene de la combinación de palabra “Copy Me” (copiame).
Alrededor de todo el mundo grupos de anti-piratería y autoridades están persiguiendo a la gente que comparte archivos. Mientras que los dueños de derechos de autor etiquetan a la gente que intercambia archivos como piratas, hay un gran grupo de personas que consideran el copiar como un acto sagrado.
El estudiante de filosofía Isak Gerson comparte archivos religiosamente, y en un intento de proteger su sistema único de creencia fundó La Iglesia Misionaria del Kopimismo en el 2010. Con la esperanza de que pudiera ayudarles a prevenir la persecución por sus creencias, la iglesia entonces llenó un pedido para ser oficialmente aceptada por las autoridades.
Después de dos intentos fallidos, cuando a la iglesia se le pidió formalizar su manera de rezar o de meditar, las autoridades finalmente reconocieron a la organización como una religión oficial. El fundador de la iglesia está en éxtasis tras estas noticias, y espera que esto le ayudará a motivar a que más personas se declaren “Kopimistas”.
“Creo que más personas tendrán el valor de declararse Kopimistas. Quizá no en público, pero al menos con sus seres cercanos,” le dijo Isak a TorrentFreak. “Aún queda un estigma legal alrededor de copiar para muchos. Mucha gente aún se preocupa de ir a prisión por copiar y mezclar. Espero que en el nombre de Kopimi esto cambie.”
Aunque el estado formal de la iglesia no significa que ahora tienen permitido el violar los derechos de autor, el fundador de la iglesia espera que sus creencias serán consideradas cuando se escriban leyes en el futuro.
Durante la última mitad del año la Iglesia Misionaria del Kopimismo triplicó sus miembros de 1,000 a 3,000 y se espera que las noticias recientes causarán otro aumento en sus seguidores. Miembro oficial o no, Gerson anima a todos los que tengan una conexión a Internet a seguir compartiendo.
“Nosotros los Kopimistas confesos no solo hemos dependido uno del otro en este enfrentamiento, sino de todos los que están copiando información. A todos quienes tienen una conexión a Internet: Sigan copiando.” Concluye Gerson.
Seguidores interesados que compartan el mismo llamado son bienvenidos a unirse al movimiento, libre de cargo.
Google adquirió 217 patentes más de IBM, las que cubren una gran variedad de diferentes tecnologías, sobre todo de servicios de datos como manejo de correo, calendarios en línea y transferir aplicaciones web entre dispositivos. La adquisición de patentes tiene dos principales propósitos: el poder desarrollar nuevos productos, y el poder utilizarlas para litigar, siendo esta última razón la primaria.
Una patente en particular podría ayudar a Google con su nueva red social Google+, la patente 7,865,592: “Utilizando redes semánticas para desarrollar una red social”. Esta patente detalla como una red social podría ser utilizada para llevar a usuarios a encontrar “expertos” o entusiastas con intereses compartidos en ciertos temas específicos.
El desarrollo de un proceso capaz de fabricar una fibra como la telaraña es de gran interés, ya que la telaraña ha demostrado ser mucho más fuerte que el acero. Sin embargo, existen serios problemas con el proceso natural de fabricación por medio de criaderos de arañas, ya que estas no producen telaraña en cantidades suficientes y usualmente son hostiles unas con las otras. En cambio, los gusanos de seda pueden producir grandes cantidades de seda, pero esta fibra es muy frágil.
Se ha tratado de producir artificialmente una fibra similar a la telaraña, pero las plataformas estándar de producción de proteínas recombinadas no han progresado mucho debido a la incapacidad de ensamblar las proteínas de la telaraña en fibras (lo que las arañas hacen naturalmente). Los científicos también han intentado producir una quimera de ambas especies, mezclando ADN de araña con ADN de gusanos de seda, con la intención de crear un gusano de seda que produzca una fibra tan fuerte como la telaraña en vez de la seda normal.
De acuerdo a una revista académica presentada por el profesor Don Jarvis de la Universidad de Wyoming y su equipo, parecen haber creado gusanos modificados genéticamente capaces de hacer esto. Aunque ya se habría trasplantado con éxito genes de arañas dentro de gusanos, estas cruzas no habían producido la suficiente super-seda hasta ahora. Las fibras de la seda producidas por estos animales son materiales compuestos que incluyen proteínas de gusano y de araña integradas en una manera extremadamente estable. Así mismo, estas fibras compuestas son, en promedio, más duras que la seda de los gusanos padres y tan fuertes como las fibras de la telaraña.
Investigadores alemanes del Instituto Fraunhofer de Ingeniería Industrial crearon un techo luminoso que re-crea las condiciones fluctuantes de luz que ocurren naturalmente en un día nublado.
No es barato. Fraunhofer dice que instalar un cielo virtual costaría aproximadamente 1,000 euros por yarda cuadrada. En un estudio, los investigadores encontraron que el 80% de los trabajadores preferían trabajar bajo un cielo virtual dinámico. El truco es simular los cambios dinámicos en la luz de tal manera que no sea obvia al ojo desnudo. Los investigadores no querían distraer a la gente de su trabajo, pero encontraron que fluctuaciones gentiles mejoraban la concentración y aumentaban el estado de alerta.
De acuerdo a las últimas estadísticas publicadas por Net Applications, México se une a los países donde el uso de Internet Explorer 6 ha llegado o quedado por debajo del 1% del mercado. Se reporta que el uso durante el mes de diciembre quedó en un 0.8%.
La versión 6 del navegador de Microsoft, con más de 10 años de vida, ha quedado obsoleto tras los avances en los estándares empleados para la creación de páginas de Internet, además de que en los últimos años ha habido una fuerte competencia por desarrollar navegadores cada vez más rápidos y con mejores implementaciones de estos estándares.
Microsoft mismo lanzó en marzo del año pasado un sitio web dedicado a monitorear y promover el abandono de Internet Explorer 6, con la meta de ver su uso bajar al 1% a nivel mundial. El sitio es llamado “The Internet Explorer 6 Countdown” (La cuenta regresiva de Internet Explorer 6), y nombra “campeones” a los países donde el uso llega o baja de este número.
México se une en diciembre, junto con los Estados Unidos, la República Checa, Portugal, las Filipinas y Ucrania; a la lista de los campeones. Los otros países donde el uso ya había bajado anteriormente son: Noruega, Finlandia, Dinamarca, Suecia, Polonia y Austria.
El uso de Internet Explorer 6 baja del 1% en México en Diciembre del 2011.
El Internet Storm Center reporta que más de un millón de sitios web han sido afectados por el ataque de inyección de SQL “Lilupophilupop”. El ataque está dirigido a sitios web que se encuentran ejecutando ASP o ColdFusion con una base de datos MSSQL. Un JavaScript cargado lleva, por medio de redirecciones y JavaScript ofuscado, a una página falsa de descarga de Adobe Flash y software antivirus.
Una simple búsqueda en Google puede llevar a muchos de los sitios web afectados por esta vulnerabilidad, la búsqueda que se puede realizar es la siguiente (con todo y las comillas):
“script src=”http://lilupophilupop.com/sl.php”
Se puede agregar la función de “site:” para ver si un sitio web ha sido afectado (asumiendo que Google ya indexó el sitio con todo y el código dañino):
Cabe mencionar que éste es un problema en el código de las páginas afectadas, no una vulnerabilidad de ASP o de MSSQL. Siempre hay que revisar bien los datos antes de introducirse a una base de datos, y utilizar sentencias preparadas de SQL si es posible.
Ser automáticamente reconocido por computadoras en todas partes es algo que parece salido de oscuras novelas distópicas como “1984” o “Una mirada a la oscuridad”, y sin embargo cada vez más abundan las cámaras de vigilancia por muchas ciudades del mundo, como es el caso de Londres, donde se estima que hay alrededor de medio millón de cámaras solo en áreas privadas, y se estiman más de 4.2 millones de cámaras en total en el Reino Unido. Esto es alrededor de una cámara por cada 14 personas, y se estima que una persona es filmada por 70 cámaras en un día. Si se combina esta tendencia de instalar cámaras de vigilancia en todas partes, con la información contenida en las redes sociales como Google+ y Facebook (las cuales ya cuentan con reconocimiento facial), esto causa preocupación en muchos.
Un diseñador de Nueva York ha creado una técnica de camuflaje que vuelve mucho más difícil el reconocimiento facial. Esta técnica de camuflaje, llamada CV Dazzle, combina maquillaje y peinado con diseños para ocultar las características faciales que los sistemas de reconocimiento utilizan para encontrar los rostros. Ya que el primer paso para la identificación es el reconocer el rostro a partir de una fotografía, esto en efecto puede volver a la persona invisible a sistemas automáticos de reconocimiento facial.
CV Dazzle es una tecnología antagónica. Se opone a la tendencia por la adopción masiva de reconocimiento facial. Diversos estudios han probado lo fácil que es identificar gente en público utilizando una imagen del rostro de alguien y las redes sociales. Estudiando los algoritmos de reconocimiento facial, Adam Harvey, el creador de CV Dazzle, buscó la manera de hacerlos fallar, de evitar que encontraran lo que los programas de reconocimiento facial buscan.
Algunos consejos que Adam Harvey da para dificultar el reconocimiento facial:
Evitar las cosas que amplifican los rasgos faciales.
Oscurecer el puente de la nariz: la región donde la nariz, los ojos y la frente se juntan es una característica facial clave.
Oscurecer parcialmente la región ocular. La oscuridad y la posición de los ojos es un rasgo facial clave.
No despiertes sospechas. Para que el camuflaje funcione, no debe ser percibido como una máscara o un disfraz.
El nombre Dazzle proviene de una técnica utilizada durante la segunda guerra mundial para camuflar barcos, al pintarles líneas que ocultaran los rasgos del barco. La pintura o camuflaje Dazzle no ocultaba el ship, pero hacía difícil determinar sus características como el tipo, el tamaño, la velocidad y la dirección.
RMS Mauretania con camuflaje dazzle. Imagen: Imperial War Museum, London.