Leyendo mis feeds veo una nota que me intereso, acerca de los puntos de vista los fundamentalistas macqueros… hace poco Intel anuncio un cambio de estrategia acerca de su postura de producir los procesadores mas rapidos, hacia uno mas productivo, hacer mas con menos, muchos usuarios celebraron este hecho, incluso apoyaron ciegamente la arquitectura PPC, con los pequeños pasos por parte de Motorola por crear procesadores dual-core. Pero en realidad que es importante y que no.
Y aun mas importante que impacto tiene esto sobre los mortales como nosotros.
1. Son los megahertz una forma incorrecta o correcta de mostrar cuando un procesador es más rápido?
Si y no, depende de muchos mas factores, sobretodo la arquitectura del procesador, y los metodos que este maneje los datos. Asi que ni es bueno ni malo, son mejores las mediciones mediante benchmarks. Aunque hay que recordar varios puntos, como por ejemplo, ya Intel se habia percatado de esto y habia hecho cambios en la dirreción de la empresa, aunque no de forma publicitada, es para muchos geek’s multiplataformas conocido que los procesadores de Motorola, los famosos PowerPC, se estaban quedando muy detras en la carrera de los hertzios, asi mismo en cuanto desempeño, (quizas no reconocido por los fundamentalistas Mac), incluso se sabe que Apple estaba coqueteando con la idea de cambiar de arquitectura dentro de sus equipos.
2. Dejo Intel de producir procesadores mas rapidos debido a que es un mal enfoque
Es malo el enfoque, sobretodo por que no podian desarrollar la tecnologia a tiempo.
Se retrasaban fechas, se notaba que no podian llevar el avance siguiendo la Ley de Moore (formulada por un ex CEO de Intel el siglo pasado), sobretodo por que el modelo de fabricacion, estaba llegando a sus limites fisicos.
Este cambio ya se habia dado a partir de los cambios en la clasificacion de procesadores, clasificando a los procesadores mas productivos (por productivos me refiero a que manejan mayores instrucciones por ciclo que en la velocid
d en si).
Intel tiene una historia de cambios extraños, por ejemplo, el Pentium 4 HT, no es otra cosa que un procesador dual-core (por dual core, se quiere decir que funciona como si tuviera dos procesadores en vez de uno, una explicacion mas geek, seria que en cierta forma hay dos procesadores dentro del mismo chip, que balancean la carga de procesamiento para entregar los datos mas rapidos)
3. Es mala la arquitectura CISC o es mejor RISC?
Depende, aunque comenzemos con algo acerca de las arquitecturas. Para empezar el significado de CISC segun la wikipedia seria:
Del inglés Complex Instruction Set Computer. Conjunto de microprocesadores cuyo conjunto de instrucciones se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos, en contraposición a la arquitecuta RISC.
y del RISC:
En arquitectura computacional, RISC del inglés Reduced Instruction Set Computer (Conjunto de Instrucciones Computacionales Reducidas ”o Regulares). Conjunto de microprocesadores con las siguientes características fundamentales:
1. Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
2. Sólo las instrucciones de carga y almacenamiento acceden a memoria a por datos.
Además estos procesadores suelen disponer de muchos registros de propósito general.
El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria.
Para empezar debemos notar que el juego de instrucciones CISC, es mucho mas viejo, en contraparte al RISC que fue desarrollado años despues, ¿por que seguimos con CISC?, quizas por compatibilidad hacia atras. Aunque si me preguntan quizas nos tardamos mucho en migrar a otros lugares.
El primer cambio importante de Intel fue el 386, de la gran familia de procesadores x86, sobretodo por que permitia de manera completa manejo de registros de 32bits, y no de manera dual como se hacia anteriormente, por otro lado, se sabe gracias a benchmarks, que un procesador RISC maneja las instrucciones mas rapido. Pero ojo, esto no significa que sean mejores los procesadores con arquitectura RISC, Motorola lo sabe, es una arquitectura mejor, si, pero quizas debido a quien se ha enfocado a su desarrollo, no ha llegado la cumbre.
Aunque los usuarios CISC tenemos algo de RISC guardado en nuestro corazon 😉
Muchos procesadores x86, tienen un nucleo basado en RISC, que acelera de manera interna el manejo de las instrucciones. Asi que no hay nada que envidiar a un PowerPC, por otro lado, los benchmarks son la prueba.
4. ¿Es mejor tener un procesador de 64-bits? o que ventajas tengo sobre uno de 32-bits?
Claro que es mejor uno de 64bits, permite manejar mas datos, en menor numero de registros, claro todo esto a nivel procesador, la principal limitacion de los saltos de arquitectura a 64-bits, es el software, de nada sirve tener el procesador mas rapido del planeta si no se puede aprovechar su capacidad de procesamiento, a mi gusto esta carrera por los hertzios o desempeño, es algo infructuoso, a mi parecer solo hay 3 tipos de mercado para mayor procesamiento, Servidores, Jugadores y usuarios extremos (por usuarios extremos, me refiero a varios grupos como usuarios CAD/CAM, Ingenieros de Sonido, fisicos o matematicos, etc). Un usuario “normal“, este que solo se encarga de ver paginas, escribir correos, cartas, etc, pueden vivir una o dos generaciones atras en cuanto a procesadores, parte de la migracion a procesadores mas rapidos, es que nuestro sistema quizas pide mas capacidad de procesamiento, esto en su parte se lo debemos a Sistemas Operativos .
En este momento me inclino a decir que los unicos sistemas operativos que le pueden sacar jugo a un procesador de 64-bits, son los basados en *nix, tales como Linux, los BSD’s. Por mencionar algunos, y incluso.
Como nota adicional, tambien puedo decir que se deja el modelo de procesadores rapidos, por dos detalles importantes, consumo de energia y calentamiento, un procesador rapido genera mas calor y consumo de energia que uno mas lento, en pocas palabras todos caminamos hacia la reduccion de tamaño, y quizas con un ojo en los dispositivos portatiles, donde estas dos palabras son muy importantes.
Pero total, ya el tiempo lo dira. Si fue buena decision, aunque por otro lado, ahora sera mas complicado la medicion de equipos, en el aspecto no geeky, es decir, como podran los fabricantes de software los requisitos minimos? 😛