No puedo seguir con el blog…

… por el hecho que se ha convertido en un problema para mí.

Los motivos para dejarlo son los siguientes:

  • Considero que su calidad ha bajado en picado en el último año, y no, no es una apreciación subjetiva, es objetiva desde el momento en que existe un descenso en los visitantes.
  • Problemas personales y mi estado de ánimo actual afectan a lo que escribo, no escribo ni una tercera parte de bien de lo que escribía hace un tiempo.
  • Mi situación económica en estos momentos no es pobre, es patética más bien, esto ha hecho que pierda interés por ciertas cosas y hable de ellas por inercia y obligación. Para ser más claro no disfruto escribiendo en el blog desde hace ya unos meses.
  • Dado que mi situación económica es patética no puedo comprar un ordenador ni tampoco una consola de nueva generación, por lo que mi interés en los videojuegos en estos momentos es bastante lejano ya que he dejado de ser usuario a ser un simple espectador y no me parecería justo hablar de los mismos en mi situación.

Espero que entendáis el motivo por el cual dejar de prestar atención a este blog.

Construyendo Nintendo NX (IV): Aclaraciones y versión de bolsillo.

Comentario original:

Te faltó mencionar que un bonaire de 20 nm tendría menos consumo y generaría menos calor que el de 28nm que conocemos a la misma frecuencia (actualmente andan entre 1050 o 1075 MHz dependiendo del ensamblador). Hay que tener en cuenta también que el año que viene AMD ya va a estar usando 14nm.
Saludos

En todo caso piensa que todo esto es una especulación de mi parte, no lo toméis como válido al 100% como han hecho muchos tontos al leer el blog y que luego berrean por ahí sobre el mismo.

Creo que no me he explicado bien en la entrada anterior, a lo que me refería es que el chip de 180mm^2 que podría llevar la Nintendo NX tenga en su interior aparte de CPU, puente norte, controlador de memoria, DSP de sonido, una GPU AMD Bonaire…en el caso del que hablamos dicha GPU estaría dentro de dicho chip ocupando el 50% del espacio del mismo, sí Nintendo manda a fabricar un chip bajo el proceso de 20nm, y no siendo un chip separado como parece que has malentendido y por eso hago esta aclaración.

En cuanto al tema del proceso de fabricación que escoja Nintendo para su chip, no sabemos cual será pero como mínimo unos 20nm para que resulte competitivo, es por ello que en la entrada anterior fui bastante conservador en ese aspecto.

Por otro lado, sabemos que AMD esta realizando dos chips para dos clientes concretos, al menos eso supimos de su Director Financiero:

Diría que habra un diseño con x86 y otro con ARM, al menos uno de ellos irá más allá de los videojuegos, cierto. Pero es todo lo que sacaréis de mi hoy. Desde el punto de vista de ser justos con nuestros clientes, este es su producto y cuando lo lancen. ntonces lo anunciaran y será cuando… podréis ver que una APU de AMD esta siendo utilizada en esos productos.

Tiraría por lo del x86-64, pero ya sabemos cual es la estrategia de Nintendo, la de unificar SU catálogo para portátil y sobremesa gracias a la unificación del entorno de desarrollo. Esto es algo que la gente confunde desgraciadamente con que ambas consolas van a ser la misma y con el mismo catálogo al 100% cuando lo que busca Nintendo es no tener que hacer dos desarrollos de cada franquicia, uno para portátil y el otro para sobremesa, cuando puede hacer uno universal que funcione en los dos sistemas.

Esto nos lleva a la siguiente consola portátil basada en la plataforma Nintendo NX y su procesador, aunque hay que tener en cuenta que no se puede colocar el chip de sobremesa en una consola portátil por temas de consumo energético y tamaño del mismo pero si que se puede crear un chip con la misma arquitectura pero escalada hacía abajo para hacer que el software sea compatible al 100%.

¿Un ejemplo de ello? Aunque en el ejemplo no voy a hablar de AMD sino de Nvidia, sus procesadores Tegra K1 y Tegra X1 son un ejemplo de llevar tecnología para sistemas de sobremesa en sistemas embebidos. Ya que como bien sabréis las GPUs son arquitecturas escalables en cuanto al número de elementos de procesamiento que tienen por un lado y son escalables en cuanto a la velocidad de reloj por otro. ¿A que viene lo de los Tegra? Pues resulta que en los últimos días ha aparecido el rumor de que MediaTek habría licenciado la tecnología de AMD para ser utilizada en sus SoCs para dispositivos embebidos (tablets, smartphones…) y esto abre la posibilidad de que sea utilizado en una futura consola portátil.

¿Diferecias respecto a la versión de sobremesa? Pues lo más seguro es que utilice una interfaz WideIO entre el procesador y la memoria por lo no veremos procesador+memoria montados sobre un sustrato/interposer sino que podriamos ver el procesador y la memoria en un mismo chip interconectados en vertical y comunicados a través de una interfaz WideIO 2.

WideIO22

Eso es todo.

VR will fail

Leo en GamesIndustry.biz lo siguiente:

HTC, el socio para el casco de realidad virtual de Valve,ha sugerido que el mercado puede esperar un precio premium para el producto cuando llegue a las estanterías.

“Queremos entregar la experiencia más “premium” que el mundo haya visto. Esto no es hablar de marketing, pero más sobre donde esta posicionado VIVE en el mercado. Esto es la gama alta”, le ha contado el director ejecutivo de marketing global a MCV.

“Empezando por la experiencia premium, incluso si esta tiene un precio más alto, es lo correcto a hacer desde el punto de vista estratégico. El precio siempre puede bajar a medida que el mercado crezca.

Me hace gracia eso de socio de Valve cuando la empresa de Newell no tiene el know-how para hacer un dispositivo de este tipo mientras HTC si, más bien diría que Valve es la que se ha pegado como una lapa a HTC para aparecer en el discurso de la realidad virtual y es que la marcha de Michael Abrash hace justo un año les tiene que haber hecho mucho daño.

Por otro lado, no hace falta ser un lince para ver como todo esto de la Realidad Virtual en PC no es más que un intento de justificar el hardware de gama muy alta, es más, sigo en mis trece que para que esto tenga éxito entre el público el dispositivo HMD, lo que es el casco vamos, ha de venir de serie con un sistema economicamente accesible a la gente y que sea lo suficientemente bueno. No tengo dudas que los que están intentando empujar la Realidad Virtual en PC no se han leído jamás este libro:

innovators-dilemma

El libro podría llamarse “Teoría del funcionamiento de los mercados tecnológico” y es que la tecnología nunca es adoptada en su forma de mayor rendimiento sino en una forma accesible a la gente y muchas veces las tecnologías que tienen éxito no empiezan desde la gama alta sino desde la gama baja y van escalando, eso si, con unas especificaciones y un rendimiento iniciales que tiran para atrás a la gente más experta y entusiasta. ¿Cual es la clave de ello? Pues simple y llanamente que las tecnologías son adoptadas por el grueso del pueblo cuando se eliminan barreras para su uso y creedme, todo lo que estamos viendo en cuanto a este tema son barreras para su adopción general.

Fijaos sino en una de las diapositivas de la presentación que hizo Valve sobre el dispositivo:

ValveVRMultiGPU

GPUs múltiples… ¿Quien tuene GPUs múltiples? Un porcentaje muy pequeño del mercado y por tanto la tecnología acaba siendo una barrera.

¿Acaso no vamos a ver la Realidad Virtual escalando a gamas más bajas? Sinceramente he estado meditando sobre el tema.

Filosoraptor

Vamos a ver, si hacemos un símil el más claro es el renderizado de gráficos 3D a tiempo real, empezó en PC con tarjetas secundarias para luego integrarse directamente su tecnología dentro de las tarjetas gráficas. El motivo de ello es que existía un mercado de ocio por un lado (videojuegos) y otro profesional (diseño 3D) con un software que demandaba dicho hardware, vamos, el clásico “Software sells Hardware”. En cambio con la Realidad Virtual es más complicada la cosa, aunque bien es cierto que existe el potencial de cara a los videojuegos estos sonsobretodo un mercado de masas y es ahí donde la gente tiene amnesia en cuanto a la adopción de los juegos en 3D.

¿Como adopto la gente los juegos en 3D? A través de sistemas para el mercado de masas que tenian el 3D integrado de serie, es decir:

PlayStationConsole1

4-original-nintendo-64

¿El coste de la adopción del 3D para la gente de a pie? Lo suficientemente bajo par ser adoptado en masa.

¿Y que hay de la parte de consola con el Morpheus?

Morpheus

Ya lo comente en su día y lo mantengo, me parece el nuevo 32X. Puedo entender que Sony haga un rebranding de su consola como hizo Nintendo de GameCube a Wii e integre su HMD de serie en el nuevo sistema como ocurrió con Wii para asegurarse la adopción masiva del dispositivo, pero no le veo futuro como un add-on para una consola ya existente y no por el hecho que el producto sea de Sony, no tiene nada que ver, sí lo hubiese hecho cualquiera de las otras dos pensaría lo mismo. Al igual que el 3D en su día la Realidad Virtual ha de ir integrada de serie en el sistema sin que esta suponga un sobrecoste para el usuario final.

E-Mail: Sobre reviews Nintendo (Mario Party 10)

Comentario Original:

Saludos.

En estos últimos meses Nintendo parece llenar su grandeza en base a los reviews de sus juegos osea según los llamados expertos en el tema y no el público en general que realmente es el que sabe y exige.
Me encuentro con que las notas para Mario Party 10 son Ign.com 6.5/10 , es decir , los resultados mas bajos en los juegos desarrollados por Nintendo .
Me llamó especial atención el veredicto final :
THE VERDICT

In my experience, two types of people get the most enjoyment out of Mario Party: Small children and inebriated adults. Nintendo’s intended audience in Mario Party 10, as with its predecessors, is clearly kids (they will probably love the amiibo tapping). But when you design something just for kids you can run into something I’ll call Candylandization: flashy stuff that requires no thought whatsoever. Kids gleefully absorb it, but adults only suffer through it for kids’ sake. But it doesn’t have to be that way. Nintendo, and the Mario franchise in particular, has a history of making games that are enjoyable for all ages. Mario Party 10 isn’t one of them. There’s always next time.

Seguirá Nintendo diciendo que todo esta bien ahora que no pueden basarse en criticas de los grandes especialistas y medios de comunicación .

Saludos .

Disfruto mucho de tus artículos

Me llama la atención lo que he subrayado en negrita porque es la demostración de la negación absoluta del N64 Kid que ha hecho el análisis.

El hecho de que Nintendo es una empresa cuya demografía principal son los niños y el hecho que la gran mayoría de los fanboys de la empresa de edad adulta hacen todo lo posible para negarlo es tema que siempre me ha parecido digno de estudio. Es curioso que quien escribe el análisis hable de la caramelización del juego cuando esta es general en la mayoría de productos de la propia Nintendo. Es más, yo que sepa Mario Party es un juego que esta pensado para disfrutar en grupo, el hecho que la persona se sienta avergonzada por el hecho que el juego tiene detalles tontos e infantiles me hace pensar que quien hace el análisis es quien tiene el problema.

Los Mario Party son juegos para hacer el niño, para reirse, putear a tus amigos en las partidas y pasar un buen rato.

Construyendo Nintendo NX (III): Procesador

Voy a partir de la siguiente configuración de ejemplo, la cual ya visteis en la primera entrega:

NXSpeculation

Tradicionalmente Nintendo y desde GameCube suele agrupar todas esas funciones menos la CPU en un chip al que Nintendo llama System LSI. Siendo bautizados históricamente como Flipper (GameCube), Hollywood (Wii) y Latte (Wii U), siendo el esquema general de los sistemas de Nintendo el siguiente:

NintendoLSI

En el caso de GCN/Wii la VRAM eran los 3MB integrados dentro del chip como cache de texturas y para el backbuffer y el z-buffer. En el caso concreto de Wii la memoria interna o MEM1 eran los 24MB de memoria 1T-SRAM dentro del mismo encapsulado:

hollywood_dies

Ya en el caso de Wii U la memoria interna y la VRAM forman parte de un mismo pozo de memoria que se encuentra dentro del System LSI “Latte” que son los 32MB de memoria embebida:

 

Con el uso del estándar de memoria HBM ya no hace falta el uso de memoria embebida dentro del procesador por lo que no se tiene que gastar parte del área del procesador en darle espacio a la memoria embebida.

La otra ventaja a la hora de utilizar memoria HBM es que su interconexión con el sustrato/interposer es en matriz y no lineal, esto se traduce en que el chip no acaba siendo inmenso para poder colocar en serie las conexiones para la interfaz de 1024 bits, sino que lo puede hacer una matriz de 32×32 bits conectada al mismo sustrato/interposer que es donde se encuentra todo el cableado desde el procesador a la memoria.

Nintendo siempre ha sido muy modesta con el tamaño de los chips de sus consolas, el Flipper de GCN tenia un tamaño de 120mm^2, el Hollywood (sin contar el chip de la MEM1) unos 72mm^2 y el Latte unos 147mm^2 aproximadamente, es por ello que pienso que los 180mm^2 lo considero algo en linea con lo que Nintendo monta habitualmente en sus consolas.

¿Un chip de 180mm^2 son buenas o malas noticias?

Depende del proceso de fabricación que escoja Nintendo para su procesador, si son 28nm son malas noticias porque el área de los chips de PS4 y Xbox One es el doble, aunque en este último caso tendríamos que descartar lo que ocupa la ESRAM para hacer una comparación más justa, por lo que para hacer más comprensible la cosa lo mejor es comparar directamente con el procesador de PlayStation 4, el cual tiene un área de 348mm^2. Sí en cambio hablamos de un proceso de 20nm entonces la cosa ya cambia ya que hablamos de un equivalente a 360mm^2 si el proceso utilizado para el chip de la NX se fabrica bajo el proceso de 20nm. No obstante tenemos que tener en cuenta que en el caso de PS4 y Xbox One ambos chips no son SoCs completos ya que relegan todas las funciones de la gestión de E/S a otros chips fuera del procesador principal, sobre el tema de las interface de E/S ver la entrada anterior.

¿Cual sería la configuración? Hemos de tener en cuenta los planes de Nintendo para el sistema unificado entre portátil y sobremesa. Si tiene que existir una compatibilidad al 100% entre ambos factores forma entonces el sistema de sobremesa no puede llevar un x86-64 como CPU y es aquí donde entra lo interesante ya que a partir del proceso de 20nm los SoC de AMD se montarán tanto con una CPU x86-64 o con una CPU ARM, siendo el Cortex A57 el primer chip que utilizarán.

amd-project-skybridge-arm-x86-640x360

¿Como se compara el Cortex A57 frente al AMD Jaguar? Teniendo en cuenta que estamos hablando de un chip pensado para sistemas como smartphones, tablets y similares en principio tenemos que tener en cuenta que su rendimiento/consumo tiene que ser mejor que el Jaguar en ese aspecto… ¿Pero como se compara con el Jaguar utilizado en PS4 y Xbox One? Pues por lo que he podido saber ambos chips y en igualdad de condiciones en cuanto a número de núcleos y velocidad de reloj están a la par, por lo que la consola al contrario de lo que ocurrió con Wii U no tendria desventaja en cuanto a la CPU se refiere.

La GPU en cambio sería del tipo GCN con soporte completo para HSA por lo tendríamos la misma tecnología que PS4 y Xbox One, lo que facilita enormemente el hecho de portar los motores gráficos, APIs, herramientas y la experiencia desarrollada en otros sistemas en este nuevo sistema en un tiempo que sería muy corto, por lo que en este caso es la mejor configuración que puede escoger Nintendo de cara a su siguiente consola de sobremesa con tal de conseguir el apoyo de terceros en forma de juegos.

Ahora bien, ¿de que configuración estamos hablando exactamente y que de potencia aproximada? Aquí es donde entramos ya en aguas pantanosas en lo que a la especulación se refiere, mi apuesta es por un AMD Bonaire como GPU, el cual a 28nm tiene un tamaño de 180mm^2 por lo que a 20nm el tamaño de la GPU en el chip pasaría a ser de 90mm^2 utilizando el proceso de 20nm y dado que el AMD Bonaire es el mismo chip utilizado en el SoC de Xbox One nos podemos esperar una potencia cercana a la potencia de la GPU de Xbox One pero sin la desventaja de tener que lidiar con la ESRAM como ocurre en la consola de Microsoft ya que la memoria HBM puede otorgar el mismo ancho de banda que la ESRAM pero sin la desventaja de la densidad de almacenamiento.

Por otro lado no nos tenemos que olvidar que los 256GB/seg de ancho de banda de la memoria HBM2 significan 128 GB/seg para lectura y 128 GB/seg para escritura, pero dicho ancho de banda se puede calibrar hacía abajo si es necesario reduciendo la velocidad de reloj de la memoria HBM2, en todo caso no hay que olvidar que Bonaire es un chip con 16 ROPS y la arquitectura GCN puede escribir 8 bytes/ROP por ciclo de reloj, esto nos daría una velocidad de reloj de 1Ghz para la GPU, lo que se traduciría en el caso de utilizar la configuración de 12 CU en unos 1.53 TFLOPS si la GPU va a esa velocidad de reloj o en en 1.79 TFLOPS en el caso de la configuración con 14 CU a 1 Ghz, lo que colocaría al sistema al mismo nivel en potencia de cálculo que PS4, aunque no podemos descartar el hecho que Nintendo puede bajar la velocidad de reloj tanto del chip como de la memoria con tal de aumentar el número de chips buenos por oblea y bajar los costes de producción de la consola y con ello el precio final de la misma.

El punto final es el consumo, no hay que olvidar que la GPU Bonaire utilizada en el HD 7790/R7 260X en su formato tarjeta con memoria GDDR5 tiene un consumo de 85W:

BonaireSpecs

 

Mi especulación para el procesador de la Nintendo NX es precisamente un chip del mismo tamaño, unos 180mm^2 pero siendo un SoC completo y no solo la GPU, por otro lado no podemos olvidar que el consumo arriba especificado es con memoria GDDR5 y la diferencia de consumo entre la GDDR5 y la HBM tal y como hemos visto en la primera entrada es bastante considerable:

Captura de pantalla 2015-03-23 a las 12.45.23

En fin, con esto termino la serie. Tened en cuenta que esta es completamente especulatoria y si el diseño final se acerca a la realidad o llega a cuadrar al 100% no será más que una coincidencia.

Construyendo Nintendo NX (II): Elementos heredados.

En esta entrada me centrare en lo que la nueva consola puede heredar de Wii U , tanto si forma parte del “Latte” o si forma parte de un componente externo a este pero dentro de la misma consola. Empezando por las siguientes interfaces de E/S en el Latte:

LatteIO

La interfaz SATA es la que comunica el chip con la lectora BluRay del sistema, cabe destacar que es curioso que el sistema tenga un total de 7 controladores USB 2.0 cuando solo dispone de unos cuatro puertos en el sistema. En cuanto al Starbucks se trata de un ARM926EJ-S utilizado por Nintendo para el control de periféricos y que ya se encontraba en Wii, aunque en este caso fue bautizado por los hackers como Starlet, así que su nombre es un cafetero juego de palabras. Todos estas interfaces pueden ser llevadas sin cambio alguno en su naturaleza al procesador de la Nintendo NX y ser integradas en el mismo.

¿Y que ocurre con el resto de periféricos? En el caso de Wii U la gestión de ciertos periféricos es llevada de forma externa por lo que la interconexión existente con estos es a través de un bus dedicado:

LatteIO2

 

Ahora bien, la gran pregunta del siglo en este caso es… ¿Donde esta la interfaz HDMI para transmitir el sonido y la imagen? Pues resulta que esta en la misma interfaz de comunicación que veis encima de estas lineas y es que en el caso concreto de Wii U hay un chip que lo que hace es coger los datos de imagen y sonido que recibe del Latte y los comprime en bloques de 16×16 pixeles que envía al Wii U Gamepad, al mismo tiempo ese mismo chip se encarga también de enviar la imagen al televisor pero envia primero al Wii U Gamepad para paliar la latencia existente y equilibrar.

En la siguiente fotografia de la placa base de Wii U es el chip con el recuadro rojo y de marca Panasonic:

WiiUBoard

¿En que se traduce esto? Pues que Nintendo puede llevar la compatibilidad con el Wii U Gamepad a una futura consola mientras conserve este chip en el siguiente sistema, el cual continuaría siendo externo como los chips encargados de gestionar el WiFi y el Bluetooth. Sí quitamos la compatibilidad con el Wii U Gamepad entonces tendríamos que incluir una interfaz NFC en la consola ya que en el caso de Wii U esta se encuentra en su mando principal.

¿Y por qué es necesaria dicha interfaz? Ejem…

Amiibo_Group

Fuera ya de los elementos de E/S el otro elemento que podría reciclar Nintendo en la NX es el chip de sonido de Wii U. No me veo a Nintendo haciendo cambios en el apartado del sonido, podría equivocarme pero los que esperéis una salida óptica en la siguiente consola de Nintendo ya os podéis dar con un canto en los dientes.

Y ya para terminar y dado que he hablado de las interfaces externas de E/S… ¿Que ocurre con el almacenamiento masivo? En el caso de Wii U la consola no viene con un Disco Duro de serie y tiene una sola interfaz SATA por lo que el almacenamiento masivo tiene que ser traído por el usuario final en forma de Discos Duros externos que se conectan a través de los puertos USB 2.0. En los tiempos que corren el Disco Duro es algo obligatorio, sobretodo de cara al contenido adicional descargable tanto si es de pago como si no y el hecho que Nintendo haya cambiado su posición respecto a cuando diseño Wii U en lo que a estos temas se refiere es más que posible que el nuevo procesador tenga dos interfaces SATA, una para el lector óptico y otra para el Disco Duro. Es más, si Nintendo incluye Disco Duro en su consola lo más seguro es que el chip eMMC y su interfaz asociada desaparezcan por duplicidad de funciones con el Disco Duro.