<$BlogRSDUrl$>

Esos aparatos del demonio

Mis notas sobre lo que voy leyendo de ordenadores y periféricos

jueves, julio 31, 2003

El tráfico de Londres 


Leo en CIO.com un artículo sobre el control del tráfico en Londres. Parece ser que han implantado un sistema de peajes: todo el que entra en la ciudad motorizado tiene que pagar una tasa. Está teniendo mucho éxito: ha reducido los atacos entre un 20% y un 30%.

Lo que relaciona esta noticia con este blog es que, para controlar el tráfico, han montado un sistema de reconocimiento de matrículas mediante cámaras. Ha sido un proyecto de gran complejidad tecnológica, donde uno de los mayores retos fue la capacidad de almacenamiento: hay que guardar fotos de más de 1 millón de vehículos cada día.

Dos claves para el éxito del proyecto: tener claros los hitos del proyecto e ir haciendo pruebas de aceptación en cada caso (además de tener claro las consecuencias de no cumplir) y utilizar tecnología ya desarrollada, es decir, integrar en vez de desarrollar.

martes, julio 29, 2003

Sobre los pixels de las cámaras de vídeo 


Echando un vistazo al artículo de hoy de Tom's Hardware, encuentro una buena explicación del número de pixels que necesitan las cámaras de vídeo.

El formato MiniDV es de 720x576 (en el sistema PAL), lo que da algo más de 414000 pixels. Sin embargo, las cámaras necesitan otros 400000 para estabilizar la imagen. Por eso, una cámara decente debe tener al menos 800000 (y parece que todas, incluso en el nivel más bajo, lo tienen).

Sin embargo, hay cámaras que traen una tarjeta para hacer fotos (por ejemplo, la de mi padre) y para las fotos son necesarios más pixels. Ahí es donde se nota la diferencia. Con 800000 pixels se puede llegar hasta 640x480, lo que significa sólo 7 x 10 cm al imprimir.

De todas formas, utilizar una cámara de vídeo como cámara de fotos es matar moscas a cañonazos y, además, las hará peor porque no tendrá flash. En Tom's Hardware afirman que ese modo de fotos está pensado sólo para fotos para enviar por Internet, es decir, fotos de baja calidad. También sirve para ver fotos en la pantalla del televisor. Y nada más.

jueves, julio 24, 2003

Outsourcing en la capital del imperio 


Leo en Wired un artículo en el que comentan la posibilidad de que algunos estados de EEUU prohíban el outsourcing (la subcontratación) a empresas que contraten a empleados en otros países. Es una más de las muchas noticias que he visto sobre este particular últimamente: está de moda.

Parece ser que hay muchas subcontratas de trabajo informático que se hacen en países de Asia, sobre todo en la India. También leí otro artículo hace unas semanas en el que la gente de la India se quejaba de que estaban empezando a irse sus subcontratas a países donde todavía los sueldos son más baratos. Sería algo así como el timador timado, ciclo que se seguirá repitiendo... hasta que alguien trabaje programando como se trabaja en régimen de explotación fabricando ropa.

Lo que escandaliza a los bienpensantes de EEUU es que se supone que esto es trabajo cualificado (aunque también hablan de call-centers en el artículo de Wired mencionado) que se está perdiendo en su nación, donde está habiendo una clara caída en el sector de las Tecnologías de la Información. En el país de la libertad de mercado, piden leyes proteccionistas para evitarlo.

Vendrán los economistas diciendo que es una aberración ese tipo de leyes, porque siempre hay que producir lo más barato que se pueda y, si se admiten, se creará mayor paro en EEUU porque las empresas estadounidenses perderán competitividad. Yo creo que es un problema global y que si nos dejamos, todos vamos a ser esclavos. Cuando el dinero circula a escala planetaria, se enturbia y en las aguas revueltas hay pescadores que obtienen mucho beneficio, mientras que la mayoría nos quedamos a dos velas.

En EEUU están viendo como sus propias empresas no piensan en sus ciudadanos. Como dijo Adam Smith: "El dueño del capital no está necesariamente ligado con ninguna nación".

martes, julio 22, 2003

Agujeros en Google 


Parece que está de moda criticar a Google. Hace poco leí un comentario en una bitácora que ahora no encuentro y hoy me vuelvo a encontrar con este artículo que leí a raíz de aquella bitácora.

Yo últimamente estoy descubriendo cosas que no me gustan en Google y me están pasando desventuras como la de hoy: busco algo que sé que está ahí y no soy capaz de encontrarlo. En realidad, esa es mi mayor crítica a Google: tarda demasiado en actualizarse. Cuando puse mi primera página web, hace dos meses, tardó mes y medio en aparecer en Google. La araña avanza muy lentamente por la red. Pero es lógico: la red es inmensa y Google recorre extremos a los que otros buscadores no llegan.

En cualquier caso, algunas críticas del artículo mencionado me parecen bastante tontas. Nunca un buscador, cuando le pongas "Apple", va a saber si quieres buscar a la compañía de ordenadores o una receta de tarta de manzana. Pero eso no es sólo culpa del buscador (el programa), es culpa del buscador (la persona que lo usa para buscar), que no pone algo más concreto. Es como decir: qué malo es el lenguaje humano, que le digo a Fulanito: "¡Fulanito!", y no sabe distinguir si quiero decir "Fulanito, te quiero" o "Fulanito, ven aquí"...

La crítica sobre que aparecen demasiados sitios de compras tampoco es del todo culpa de Google. La persona que busca puede arreglarlo poniendo más palabras clave ("review", por ejemplo) o eliminando páginas con ciertas palabras ("-buy now").

Otra crítica que le hacen: Google sólo encuentra lo que está en el web. ¡Hombre, qué quieren! ¡Es un buscador en el web! Por supuesto que van a ser más importantes los artículos científicos que estén libremente accesibles en el web. Más gente puede acceder a ellos y más gente los va a referenciar. Aunque sean peores que otros. Pero eso no es culpa de Google. Ni que el New York Times sea menos referenciado que El Comercio Digital (versión digital de un periódico local de Gijón) -por decir algo- mientras este último sea de libre acceso y aquel requiera pagar. ¿Pero eso es culpa de Google?

En resumen: las críticas a Google del artículo deberían hacerse, por un lado, a los que no saben utilizarlo; y por otro, a la propia estructura de la red.

Obviamente, pensar que es Dios o un oráculo es una tontería como una casa. Pero pensar que es impresionante, no.

miércoles, julio 16, 2003

La guerra de los navegadores II: los rebeldes contraatacan 


Leo un artículo sobre guerras de navegadores en Wired.

Este post lo estoy escribiendo desde Mozilla 1.4. Yo usé desde el principio Netscape. Bueno, creo que probé Mosaic, pero cuando me introduje en serio en el web fue con el Netscape 2.algo. Mi cliente de correo ha sido siempre el de Netscape. Ah, no: al principio era el Emacs, pero desde el Netscape 3.0 siempre utilicé el de Netscape. En aquella época trabajaba sobre todo en Solaris.

Más tarde empecé a trabajar sobre todo en Windows. Utilizaba también el Netscape. Hasta que con el 4.algo empezó a perder claramente terreno frente al Explorer 5.0 y 6.0: estos últimos eran a todas luces mejores.

Probé el Netscape 6.0. Un fracaso. Creo que echó un minuto en abrirse.

Con el Netscape 6.1 me fue mejor. Dejé de utilizar el Netscape 3.0 en Solaris como cliente de correo y me pasé a este. La navegación seguía sin ser del todo buena pero se podía avanzar.

Probé alguna versión de Mozilla pero me dio problemas. En algún ordenador instalé Netscape 7.0 y me iba muy bien navegando, pero el cliente de correo me regaló bastantes quebraderos de cabeza.

Por fin, este Mozilla 1.4 me convence. Todavía me da algún problema navegando, pero en general va bien; la navegación con tabs es fundamental, el quitar los pop-ups también es un placer y el cliente de correo al fin funciona bien. Una tontería como el word-wrapping me parece fundamental. Desde el Emacs no lo veía tan bien.

Estoy a gusto con el Mozilla a pesar de haber tenido un problema gordo: intenté bajarme el certificado de la Fábrica Nacional de Moneda y Timbre para hacer la declaración de la Renta y no fui capaz. El certificado me lo bajó, pero no me funcionaba en la página de la Aeat y tampoco podía exportarlo. Nadie me supo dar una solución.

¿Volverá Mozilla a tener una cuota significativa del mercado de navegadores....? A corto plazo lo veo difícil. Dicen que el Internet Explorer está muerto porque Microsoft ha decidido dejar de hacer versiones como aplicación en solitario; las próximas serán parte de los nuevos sistemas operativos de Microsoft y no habrá versiones para Windows 98 ni para Apple. En el mundo Linux hay varios navegadores, pero es donde más posibilidades tiene Mozilla. Por este lado, la suerte de Mozilla va pareja a la de Linux. Aunque también he descubierto recientemente una cosa: Konqueror. No me gusta tanto como Mozilla pero es el que viene instalado con el Suse 8.2 dentro del entorno KDE y lo estoy utilizando cuando arranco en casa en Linux.

Alguien afirma en el artículo que Mozilla no conseguirá ganar mercado por ser mejor. Según él, el Explorer ganó sin ser mejor, sólo porque ya estaba instalado. Sin negar la importancia de venir con el sistema operativo, hay que decir que si Netscape perdió también fue porque hizo un producto peor. Se quedó atrás. Microsoft, desde que ha dejado de tener rivales dignos de consideración, se ha dormido en los laureles. Sin embargo, funciona (que es lo que le importa a la gente) y arrebatarle el puesto a estas alturas va a ser muy difícil.

Por cierto, lo que cuenta el artículo es que Mozilla se separa de AOL para crear la Mozilla Foundation. Esta se supone que intentará que el navegador no sea tanto para desarrolladores, como parece que es hasta ahora, y que llegue al gran público. Suerte.

Este otro artículo en evolt.org también cuenta la historia de las Guerras de Navegadores y lo que está pasando ahora.

martes, julio 15, 2003

Guía de compras de tarjetas VGA 


En Tom's Hardware han decidido hacer una guía de compras de tarjetas VGA (o tarjetas de vídeo).

Empiezan por un comentario obvio pero que, en sus análisis, parece que olvidan muy a menudo: que aunque el principio todo el mundo quiera la tarjeta más potente, luego miran el precio y prefieren la que dé más caña por euro (traducción libre de "bang for the buck"). Incluso a los que no les importa comprarse lo más nuevo del mercado se encuentran con que a los 6 meses sus tarjetas son de las normalillas (otra traducción muy libre: "entry level").

Los únicos fabricantes de chips de tarjetas de vídeo que importan hoy en día son ATI y NVIDIA. Ambos tienen varios segmentos de precios y, para muchos modelos de tarjeta, tienen dos versiones: la normal y la mejorada. Esta última tiene mayor frecuencia de reloj y alguna otra ventaja. ATI les pone el prefijo "PRO" y NVIDIA, "Ultra".

También recuerdan que NVIDIA no hace tarjetas, sino sólo chips que luego licencia a otros fabricantes. ATI hace chips pero también tarjetas, aunque parece ser que sólo las vende en USA y Canadá. Comentan que el mismo chipset da más o menos los mismos resultados sea quien sea el fabricante, porque todos siguen el mismo esquema de referencia; sin embargo, en las tarjetas NVIDA hay bastante diferencia entre los extras que pone un frabricante y otro.

Lo que no cuentan -y fue una gran sorpresa que me llevé yo cuando compré mi GeForce 4 MMX 440- es que hay tarjetas de este tipo que se anuncian como de 64 Mbytes y luego son, en realidad, de 32 Mbytes y los otros 32 Mbytes los emulan por software. Esa emulación hacía que mi Pentium 4 a 2 GHz se me quedara frito (CPU al 100%) incluso cuando no estaba haciendo grandes visualizaciones. ¡Era mucho mejor utilizar un driver que no emulase esos 32 Mbytes! Consejo: desactivar el servicio nvsvc32.exe, que es causante de muchos problemas.

A pesar de lo que decían al principio sobre el precio y el rendimiento, el artículo se fija sólo en las tarjetas de última generación. Por lo tanto dejan de lado tarjetas de la época del DirectX 7.

Comentan que NVIDIA ha introducido tarjetas que soportan el DirectX 9.0... pero sólo en papel a resoluciones de 1024x768 y mayores.

Explican modelo a modelo las tarjetas de cada segmento de precio tanto para ATI como para NVIDIA y hacen una serie de benchmarks.

Actualización (16/Jul/2003): Veo en el foro de Noticias3D.com unas cuantas críticas a estas comparativa.

domingo, julio 13, 2003

Jugando 


He estado probando algunos juegos que venían con el PC Actual de junio de 2003.

Primero le eché un vistazo al "Port Royale". Típico juego de estrategia. Cinco minutos del tutorial y desinstalado.

Luego metí el "Championship Manager Temporada 02/03". Es como el mítico "Futbol Manager" al que eché una tarde hace siglos una partida histórica en un Spectrum que me dejaron. Pero ahora con muchos mejores gráficos, información real y no sé cuántas chorradas más... 3 minutos y desinstalado.

El primer juego que me impactó fue "Postal 2". Los gráficos no son nada del otro mundo (las texturas parecen pegadas de mala manera a la cara de los personajes) pero lo obsceno del juego me revolvió las tripas. Si algo tiene el nombre de violencia gratuita es eso que se muestra en este juego. Luego ponen al principio un aviso de que ellos no apoyan la violencia... Que no hagan juegos basura. 10 minutos (hacía años que no veía un juego de estos en primera persona) y desinstalado.

Siguiente: "Skyzo". Presentación muy interesante pero luego el juego resultó ser igual que uno que tenía en el Amstrad. Bastante tonto. 5 minutos y desinstalado.

Por último probé el "BloodRayne". Me impactó. Pero positivamente. También es violento, muy violento, pero está bien hecho, muy bien hecho. Los movimientos son como de película (y me costó trabajo adaptarme al ratón). El sonido te hace vivirlo: de repente me encontré moviendo todo el cuerpo y sólo me faltó traerme un par de cuchillos de la cocina para estar a tono con el personaje (por cierto, espectacular protagonista). Mira que no me gusta la mezcla de sexo y violencia, pero aquí consiguen una rara mezcla con acierto estético. Me tiré jugando un buen rato. Imagino que con la fase de demo me será bastante para cansarme, pero de todas formas, no está mal. De momento, sigue instalado.

viernes, julio 11, 2003

David Patterson entrevista a Jim Gray y hablan sobre sistemas de almacenamiento 


Leo una interesante entrevista sobre almacenaniento.

El entrevistador es David Patterson, uno de los grandes de la arquitectura de computadores, autor de un libro de texto clásico en la materia y creador del concepto de RISC (junto con otra gente). En sus ratos libres, también participó en la creación del concepto de RAID.

El entrevistado es Jim Gray, a quien no conocía pero debe de ser experto en sistemas de almacenamiento.

Lo interesante del artículo es que cuentan una historia de la evolución de los sistemas de almacenamiento, con datos e interpretaciones. En estos párrafos se resume todo:


JG First, people in the laboratory have been improving density. From about 1960 to 1990, the magnetic material density improved at something like 35 percent per year—a little slower than Moore's Law. In fact, there was a lot of discussion that RAM megabyte per dollar would surpass disks because RAM was following Moore's Law and disks were evolving much more slowly.

But starting about 1989, disk densities began to double each year. Rather than going slower than Moore's Law, they grew faster. Moore's Law is something like 60 percent a year, and disk densities improved 100 percent per year.

Today disk-capacity growth continues at this blistering rate, maybe a little slower. But disk access, which is to say, "Move the disk arm to the right cylinder and rotate the disk to the right block," has improved about tenfold. The rotation speed has gone up from 3,000 to 15,000 RPM, and the access times have gone from 50 milliseconds down to 5 milliseconds. That's a factor of 10. Bandwidth has improved about 40-fold, from 1 megabyte per second to 40 megabytes per second. Access times are improving about 7 to 10 percent per year. Meanwhile, densities have been improving at 100 percent per year.


Comentan que cuando haya discos de 200 terabytes, en leer todo el disco de manera aleatoria se podría tardar un año. De manera secuencia, "sólo" un día.

La verdad es que también tiene algunos desvaríos: lo de enviar ordenadores completos sólo para enviar los datos es una pasada. Sólo tiene sentido con una cantidad de datos enorme.

A esto de utilizar como red los discos o disquetes es a lo que llaman "Sneaker Net".

Cuenta cómo nació el concepto de bases de datos relacional, inventado por Ted Codd.

También habla de las bases de datos de código abierto. Por cierto, menciona un acrónimo de tres letras que veo mucho últimamente: FUD, Fear, Uncertainty and Doubt (miedo, incertidumbre y duda). Parece que es como luchan las compañías de software propietario contra el movimiento libre.

Parece que Larry Ellison (jefazo de Oracle) ha dicho que toda su compañía corre en Linux y Jim Gray desea que Scott McNealy (jefazo de Sun) diga algún día que toda su compañía funciona con MySQL... para que pruebe de su propia medicina. ¡Qué mala leche! :-)

El futuro según Jim Gray: "Los discos sustituirán a las cintas y los discos tendrán capacidad infinita. Punto."

Otra predicción: como todo (discos duros, pantallas, tarjetas de red...) va a tener unos procesadores muy potentes dentro y una buena cantidad de memoria, se acabó IDE, SCSI, etc.: va a ser sustituido por algo tipo TCP/IP, probablemente SOAP o un derivado. Los de Seagate no lo ven muy claro... lo ven muy caro.

Vaya, el artículo está dedicado a la memoria de Ted Codd, que murió después de hacerse la entrevista.

Cámaras de 3 megapixels 


Echo un vistazo a un artículo en Tom's Hardware sobre cámaras de 3 megapixels.

Dicen que las hay por menos de $300 y que ya están pensadas para el aficionado. Por cierto, puede haber bastante diferencia de precios entre Europa y USA según la política del fabricante.

En la segunda página hay un gráfico muy interesante en el que se muestran los distintos tamaños a los que se pueden obtener copias en función de la resolución de la cámara.

En la tercera página comentan algo que no sabía: la diagonal de los sensores suele ser de 1/1.8''. Cuantos más sensores se metan en esa superficie, más fácil es que haya problemas de ruido que afectan a la calidad de la foto. Hay fabricantes que empiezan a montar sensores de 2/3''.

Sobre los tiempos de tomar una foto, andan en torno a los dos segundos (de 1.4 a 2.1 s).

jueves, julio 10, 2003

¿Nueva tecnología RAM? 


Leo en Wired un artículo sobre una nueva tecnología para la memoria RAM.

La han desarrollado entre Motorola e IBM. Se llama MRAM y es magnetoresistiva. Se supone que PDAs y teléfonos móviles la empezarán a utilizar sobre mediados del 2004. La gran ventaja: es no volátil.

El principio de funcionamiento es el siguiente: cada celda de memoria está formada por dos capas magnéticas con una capa aislante entre ellas. Si las dos capas se polarizan en la misma dirección, hay un 1. Si no, hay un 0. Al utilizar el magnetismo (como los discos duros o los disquetes), no se pierde la información cuando no está alimentada.

Además de ser no volátil dicen que es ¡hasta 6 veces más rápida que la SRAM! Además, es muy densa: ocupa menos espacio. Para que no falte nada, consume menos que la memoria Flash.

Es extraño que vendan como gran ventaja reducir los tiempos de arranque de los ordenadores. A mí me parece que hacer memoria no volátil más barata que la Flash es una ventaja mayor: a lo mejor dentro de un par de años me puedo comprar un reproductor de MP3 con 2 GB por un precio asequible :-)

Lo ponen como la solución mágica: va a acabar con la SRAM, la DRAM y la memoria Flash. No acabo de creérmelo. No cuentan nada del precio. Investigemos más...

Hum, en How stuff works dicen que tardará 10 años en llegar al mainstream. También hablan de otro tipo de memoria que está desarrollando IBM: la holográfica.

En el 2000, Wired ya le hacía una entrevista a Sturart Parkin, que parece el investigador más imporante sobre MRAM y que, según cuentan, logró avances muy importantes para la tecnología de los discos duros.

Por cierto, explican que en la memoria Flash, cada vez que se escribe una celda se daña. Por eso, después de 10000 ciclos de lectura/escritura falla y no se puede utilizar como memoria principal del ordenador. Yo creía que el problema era más bien que no es tan rápida como la DRAM.

Todas las historias que he encontrado parecen decir que sí, que la MRAM es el futuro. Veremos. De momento anuncian chips de 256 MB.

miércoles, julio 09, 2003

Análisis de placas base 


Echo un vistazo a la introducción y las conclusiones de una enorme comparativa de placas base en Tom's Hardware.

Destaca entre las conclusiones que aunque Intel dice que el chipset 875P es mejor que el 865PE, varios fabricantes (Abit, Asus, MSI y puede que Gigabyte) han activo el PAT (una característica que reduce ciclos de acceso a memoria) y, por lo tanto, sus placas con 865PE van igual de bien que las de 875P.

Otra conclusión es que DDR400 causa algún problema y que será necesario un nuevo diseño para ir a DDR533.

También dice que cada vez hay más controladoras que integran extras en placa y destaca el RAID IDE. Habla de un RAID de 12 discos. (Y de problemas con las longitudes de los cables SerialATA que se incorporan.)

Afirma que lo de actualizar la BIOS con un disquete ya está desfasado: se hace desde Windows.

Parece que hay cada vez más preocupación por el control del ruido y, en consecuencia, aparecen formas de controlar la velocidad del ventilador de la CPU.

Critican los precios de placas de Intel y Asus de gama alta.
Le dan el premio a la Gigabyte GA-8KNXP (porque viene con bastante buen equipamiento) y a la MSI Neo 2 (por su rendimiento y capacidad de overcloking).

Ideas sobre benchmarking 


Leo en Noticias3D.com un interesante editorial sobre benchmarking.

En la primera parte, lista los aspectos más importantes de los principales subsistemas del PC, desde el procesador al chipset pasando por la tarjeta gráfica.

Lo que cuenta (que es difícil que los benchmarks indiquen claramente la realidad y que todo depende de qué aplicación le vayamos a dar al ordenador) no es nuevo. Pero está muy bien contado.

Entre otras cosas, pone ejemplos reales de juegos con benchmarks que son bastantes divertidos (el de nVidia y Pixar se sale).

Sentencia: "Los compiladores son uno de los factores más importantes para el éxito de una CPU. De ellos dependerá el futuro del Intel Itanium y AMD Opteron."

lunes, julio 07, 2003

Acelerando la RAM 


Leo un artículo de hace una semana en Tom's Hardware sobre cómo acelerar la RAM.

Empieza diciendo que ya hay un estándar para la DDR400 (también llamada PC3200). Por lo visto, ha habido bastantes problemas de incompatibilidades entre los módulos y las placas base.

Comentan que una manera de mejorar las prestaciones es cambiar el multiplicador del bus de memoria. Dicen que en un Athlon XP puede que al pasar de 3/3 (DDR333) a 4/3 (DDR400) incluso pierdas rendimiento (imagino que por problemas de de sincronización). Aconsejan, en lugar de modificar la frecuencia del bus, jugar con las latencias.

Cifran el límite de la mejora al cambiar latencias sobre el rendimiento en un 10%.

Lo primero que hay que hacer es deshabilitar el SPD (Serial Presence Detector), es decir, no utilizar los valores que tienen los módulos de memoria almacenados porque son muy conservadores o, incluso, pueden ser incorrectos porque los fabricantes de módulos genéricos recortan costes y no se preocupan de poner los valores adecuados.

Los tres parámetros más importantes son:

- RAS-to-CAS delay (tRCD): Tiempo desde que se selecciona la fila (row) hasta que se ponen los valores en un buffer intermedio.

- CAS Latency (CL o tCL): Tiempo desde que se selecciona la columna hasta que aparece en el buffer de salida del módulo el valor pedido.

- RAS precharge time (tRP): Tiempo para cargar los circuitos a un nivel de tensión más alto. Entiendo que ocurre sólo cuando se cambia de fila. Además, para cambiar de fila hay que esperar al menos el tiempo de fila activa (row active time, tRAS).

Parece que los chips modernos se subdividen en cuantro bancos y que mientras se está leyendo uno, se puede ir direccionando otro. Se puede seleccionar en la BIOS cuántos bancos se direccionan simultáneamente. La opción se suele llamar Bank interleaving.

Dicen que en un PC la cantidad máxima de memoria direccionable es 3.5 GB porque el resto se reserva para direccionar dispositivos PCI.

Recomiendan utilizar cuantos menos módulos mejor.

El cronograma del acceso a memoria que hay en esta página es muy ilustrativo.

En general, este es un gran artículo.

viernes, julio 04, 2003

¿Salvará el código abierto al hardware? 


Mi lectura de hoy de Tom's Hardware es un artículo sobre lo que dirige el desarrollo del hardware. (Por cierto, el artículo hace uso de una expresión que veo con cierta frecuencia en inglés: dice que la red es "sexy". Me hace gracia esta forma de hablar, donde atractivo es igual a atractivo sexual. ¿Llegaremos a decir en España que el último procesador de Intel es muy sexy...?)

Hasta ahora, eran los juegos los que pedían nuevas capacidades al hardware del PC. Según el autor, cuando salgan la XBox2 y la PS3 van a tener tanta potencia que la ventaja de los PCs se va a diluir. También comenta que cada vez hay más juegos multiplataforma, así que tampoco es una ventaja tener un PC porque determinado juego sólo funciona en esta plataforma.

Sobre lo de la potencia, me parece que seguirán sacando juegos que necesitarán más de lo que ofrecen las consolas... ofrezcan lo que ofrezcan. Cuando se consiga el realismo absoluto (que está bastante lejos de conseguirse: cada vez que veo un dibujo de un superjuego me asombro de lo poligonal que resulta todavía), se exigirán nuevas cosas: la hiperrealidad o lo que sea.

Previsiones:

- En dos años, Gigabit Ethernet va a ser el estándar.
- En el 2005-2006, los fabricantes van a montar PCI Express (PCI de 64 bits).

El paso a 64 bits en los procesadores no acaba de estar claro, ni en el sector doméstico ni en el empresarial (porque no se ve la necesidad). Como Microsoft parece que tira mucho de ello, el autor se pregunta si lo hará la comunidad de código abierto. Parece que no, a no ser gente interesada en hacer juegos fuera del circuito propietario.

La verdad es que este artículo no merece mucho la pena.

jueves, julio 03, 2003

Montarse una red en casa 


Leo un artículo en Tom's hardware sobre montarse una red en casa. Cita los bajos tipos de interés como una de las razones por las que los americanos tienen ahora la oportunidad de comprar una casa nueva. Allí están al 1%. Por aquí andan un poco más altos, pero muchos de mis amigos están en la edad de la independencia. N., sin ir más lejos, aprovechó las reformas de la casa que se acaba de comprar para meter el cableado Ethernet.

En Tom's hardware cuentan que antes de comprarse una casa hay que tener en cuenta las posibles conexiones (ADSL, cable, satélite...) que estarán a tu disposición. En Estados Unidos probablemente sea más complicado que aquí en España, a no ser que te compres una casa lejos de un núcleo urbano. Ahora mismo en Asturias no me parece que haya mucho problema en las tres grandes ciudades para tener las dos opciones básicas: ADSL y cable. M. compró casa en el barrio prácticamente nuevo que están haciendo en la avenida que comunica el Hipercor con Montevil (zona en la que también han comprado otros tres amigos, todos Ingenieros en Informática) y en la reunión de la comunidad ya fueron los de TeleCable a pedir que les permitieran llevar la acometida hasta el portal. Por cierto, era gratis y aún así había vecinos que se lo pensaban, ¡qué gente!

Sobre la posibilidad de montarse una red wireless, parece que es fácil que dé problemas en viviendas de varias plantas. Aquí en España el tamaño medio de los hogares es mucho más pequeño, así que por ahí imagino que no habrá demasiados inconvenientes.

Comenta que la mejor opción wireless desde el punto de vista de las prestaciones es el 802.11g pero que los productos son todavía muy caros.

El autor compara velocidades (100 Mbps para Ethernet, 54 para 802.11g y 802.11a -esta última no disponible en España porque usa una banda regulada- y 11 Mbps para 802.11b) y da a entender que 11 Mbps es ridículo. Yo trabajé bastante tiempo a esa velocidad y estaba bien servido. Para el acceso a Internet, obviamente, no es problema, ya que una conexión normal ADSL es de 256 kbps. Para juegos en red dice que es conveniente 100 Mbps... Yo creía que sólo pasaban la posición del personaje y no era necesario mucho ancho de banda. Otra cosa es si quieres pasar un CD de un ordenador a otro o, incluso, reproducir música en un ordenador y mandarla por streaming a otro, como me comentaba un alumno. Por cierto, este alumno me decía que los días de lluvia el notaba que le bajaba la velocidad de la conexión en su red wireless (802.11b) y apreciaba saltos en la escucha del CD.

En contra del wireless está también el asunto de la seguridad. Aunque ha habido muchas mejoras, siempre será más inseguro utilizar el aire que un cable.

La gran ventaja, por supuesto, es la facilidad de instalación desde el punto de vista de la obra a hacer.

Comenta sobre Gibabit Ethernet que el precio de las tarjetas ha bajado mucho pero que el de los switches sigue siendo muy alto.

Sobre la disposición de las rosetas, hace un comentario que le gustaría a mi padre: en caso de duda, añade más enchufes... :-)

Por cierto, vaya casita que se está montando el autor del artículo...

Yo creía que remiraba mucho antes de hacer cualquier cambio en la casa, pero este hombre habló con ¡40 contratistas! sólo para que le montasen la red. Esto me recuerda a aquella historia de El Escorial que contaban en "Nubosidad variable": El Escorial era como llamaban al baño de los vecinos por la cantidad de obra que llevó :-)

No me he leído el artículo entero porque es muy largo: con ese pedazo de casa que tiene el hombre...


miércoles, julio 02, 2003

Wifi en El País 


La edición del domingo de El País Negocios tiene como tema principal de portada las redes Wifi. Hace poco Wired también habló de ello y, de hecho, El País cita a esta revista como la Biblia del asunto.

Por un lado, se cantan las ventajas de esta nueva tecnología. Por otro, se advierte de una nueva posible burbuja.

Un aspecto del que ya he hablado con varios compañeros y que El País no trata correctamente es el del espectro. La banda de los 2.4 GHz que utiliza el estándar Wifi es libre. Según El País eso es una ventaja porque cualquiera puede competir. Pero ¿no creará eso un problema de interferencias y saturación...?

Por otro lado en El País sólo se habla de Wifi como una forma de acceder a Internet. Sin embargo, en una conferencia a la que asistí organizada por AsturiasWireless.net comentaban que muchas de estas redes se montan, o bien como redes locales dentro de una oficina, o bien como redes metropolitanas. El acceso a Internet es sólo una opción más.

Por otra parte El País no dejaba de insistir en que va mucho más rápido que el módem... Bueno, en teoría el 802.11b va a unos 11 Mbps y el 802.11g a 54 Mbps, pero eso son velocidades máximas y, en última instancia, la velocidad de conexión a Internet depende luego de qué proporcione esa conexión a Internet. Además el acceso a través del módem (se entiende que con la línea de teléfono básica a 56 Kbps) no es, ni mucho menos, la única tecnología de cable (coaxial o de cobre) y no tiene sentido comparar el Wifi con ellas.

Tiempo de respuesta y contraste en monitores planos 


En Tom's Hardware leo una interesante comparativa sobre monitores planos.

Destaca la discusión sobre los dos aspectos que consideran más importantes a la hora de utilizar un monitor plano para jugar o retocar fotografí­as:

- El tiempo de respuesta: es lo que tarda (de media) una celda de cristal líquido en pasar de activa a inactiva y de vuelta a activa. Cuanto menor, mejor. Si es grande, hay demasiada persistencia de las imágenes. Parece que influye sobre todo en los juegos de acción (para mí no será problema :-) ). El valor mí­nimo hace un año era 20 ms (milisegundos) pero el normal debe de ser 25 ms. Ahora ya los hay de 16 ms, pero parece los que se anuncian con ese valor tienen menos colores y, para simular los colores que no tienen, cambian entre dos colores, con lo que al final se ven peor.

- El nivel de contraste: es la razón entre el punto más brillante y el menos. En la práctica da el número de grises (o de sombras) que puede tener una imagen. Parece que influye en la calidad de los colores y por eso es importante para el retoque fotográfico. Hace un año los valores normales eran 300:1 y ahora es 500:1.

Explican también métodos de calibración.

Por supuesto, hay que recordar el escabroso asunto de los píxeles muertos...

This page is powered by Blogger. Isn't yours?

Blogroll
Enlaces
Archivos

Licencia Creative Commons
Este trabajo tiene licencia Creative Commons License.