BandaAncha.eu

  • 🔍 en 📰 artículos ⏎
  • 🔍 en 👇 este 📰 artículo ⏎
  • 🔍 en 💬 foros ⏎
Regístrate Regístrate Identifícate Identifícate
  • 📰 Artículos

AMD anuncia el desarrollo de "Fusion"

djnacho

Algo así tenía que ocurrir tarde o temprano, sobre todo después de la adquisición de ATI, por parte de AMD. AMD (Advanced Micro Devices), ha anunciado el desarrollo de la nueva gama de microprocesadores x86, cuyo nombre en clave es "Fusion".

Y..., ¿Cual es la novedad de estos microprocesadores?. La novedad es que la GPU (es decir, el procesador gráfico) no estará ni en una tarjeta PCI Express, ni integrada en la placa base del PC, sino que estará integrada en el propio microprocesador.

Esta es una novedad que se veía venir de lejos, pero ha sido ahora, a raiz de la compra de ATI por parte de AMD, cuando esta idea comienza a ver la luz. La mejora en el rendimiento por parte del microprocesador gráfico está garantizado (misma velocidad de reloj que los nucleos x86, frecuencia de bus igual a la interna del micro x86, bus de datos de la misma longitud, y un largo etc.).

Este nuevo microprocesador verá la luz a finales de 2008, o principios de 2009.

💬 Comentarios

Comtrend536

Que interesante; ahora toca que Intel compre Nvidia :D

🗨️ 11
kaleth

Bueno, Intel ya desarrolla sus propios chips gráficos integrados, así que si quieren ellos se lo guisan y ellos se lo comen. :P

🗨️ 3
darkdead

Integrados en el puente norte no en la cpu compartiendo acceso directo a la cpu con la posivilidad de multipilcar por 10 el rendimiento luego solo tienen que implementar un RAMDAC externo para covertir la trama de datos de video en analogico.

🗨️ 2
kaleth

¿Y quien ha dicho lo contrario? :) Quizá debiera haber especificado integrados en placa para evitar confusiones.

🗨️ 1
BocaDePez
BocaDePez

Yo lo que veo de venir es que ya mismo le meten al micro la memoria ram y wimax con usbwireless como complemento indispensable, y de aquí a diez añitos, byebye pc de sobremesa. A ver si se locurran y meten en el micro hasta el botón del power, verás como van a ser portatiles estos aparatos de la vida cotidiana.....

Y no es coña.... xDDD

Shortshot

Hay más papeletas para que NVidia sea comprada por IBM y comiencen a hacer híbridos con la familia CELL de CPUs, ya que entre otras cosas, abarataría los costes de fabricación de la PS3 y las que vengan detrás.

🗨️ 6
BocaDePez
BocaDePez

Pero si IBM ya solo fabrica su gama de servidores, hasta ha vendido la sección de portatiles.....

🗨️ 5
daleguerra

Efectivamente, que se lo pregunten a Lenovo, que se está forrando con la venta de la marca IBM en PCs.

🗨️ 1
Locks

Lenovo, no vende portatiles/PCs con marca IBM, vende portatiles/pcs con marca thinkpad que antes era marca propiedad de IBM.

BocaDePez
BocaDePez

IBM fabrica los procesadores de la XBOX 360, la PS3 y la Nintendo Wii.

🗨️ 2
Shortshot

Exactamente. Además, la familia de CPUs usadas para estas consolas (las CELL) ya eran antes usadas en la construcción de super-ordenadores, y ahora con más motivo investigarán y potenciarán esta arquitectura.

🗨️ 1
Locks
usuario-eliminado

creo que puede tener una gran salida para el mercado doméstico, pero no así para profesionales del diseño y usuarios jugones, ya que en ese caso la necesidad de ampliar la GPU implicaría forzosamente cambio de CPU, lo que dispararía los costes de ampliación de un equipo, a no ser que las placas para dichos procesadores trajeran una ranura de ampliación (PCI-X) o lo que se estile dentro de un par de años para poder insertar una tarjeta de video más potente, pudiendo anular la del procesador, como pasa con las VGA integradas en placa.

🗨️ 12
BocaDePez
BocaDePez

A ver, si quieres actualizarte la grafica, te pones una pci como harias con un chip de intel.

Ademas lo suyo es comprarte una cpu y grafica parejas. O acaso tu vas a comprarte una 8000 para jugar en un pentium 4?

Filiprino

pci-x? Eso no se usa en los pc's "normales". Supongo que te referirías al PCI-e (pci express). No es lo mismo pci-x que pci-e.

🗨️ 1
usuario-eliminado

tienes razon, se me ha perdido la neurona y he puesto lo que no era, gracias por la puntualización.

Krigan

Es que esa es la idea. Cada vez necesitamos menos una CPU potente, porque la mayoría ya tenemos potencia de sobra. Pero con la GPU no pasa eso, cuanta más potencia mejor. La solución para AMD e Intel es obvia: hacer que ambos chips sean el mismo.

Al usuario de a pie le saldrá más barato, por la integración. Al que necesite prestaciones avanzadas le saldrá más caro, pero será mucho más potente porque no tendrá que depender de los buses externos al procesador. Por supuesto, la caché del procesador estará a disposición de la GPU.

🗨️ 8
usuario-eliminado

si, realmente es lo que poco a poco ha ido sucediendo también con las placas base, hace 5 años por 120€ tenias una placa alta de gama pero que en realidad no traía nada de nada, y ahora mismo por el mismo precio las tienes con dos ethernet, sonido integrado, SPDIF, las hay con conexiones para sistemas 5.1, controladora raid SATA y/o PATA y un sinfín de características.

antes si querias un ordenador bueno tenías que elegir placa, procesador, grafica, memoria, ethernet, t.sonido, y si querias controladora RAID pagar una pasta por esas joyas que vendía adaptec, hoy en día tan solo te tienes que preocupar de elegir procesador.

🗨️ 4
BocaDePez
BocaDePez

Las placas base domésticas son una basura. Da asco ver los condensadores torcidos y el acabado deja mucho que desear en algunas. Además los componentes quedan demasiado apiñados junto a la MACETA de esa especie de TURBINA-METE-RUIDO del procesador. Y la cantidad de memoria es ridícula. ¿4 Mb?, Y sólo reconoce un poco más de la mitad. Me arrepiento bastante de seguir comprando placas doméstico-baratas. Me iré directamente a las profesionales.

Para los que quieran jugar les basta con las domésticas. A mí no me sirven. Aunque sólo sea por el acabado merecen un vistazo las profesionales. Y Linux vuela con ellas.

🗨️ 3
joseangel

Maximo de RAM tipico 4GB, no 4 MB.

Y a mi me parece excelente capacidad, ¿o vas a usar tanta memoria para los contactos que guardas en tu base de datos Oracle 10? ¿O vas a tener 100 hebras de apache a toda leche? ¿O necesitas un disco de ram virtua par hacer da caché porque el rendimiento de tu disco duro no da para atender las peticiones de acceso de tus miles de usuarios?

Tener mucha RAM es interesante, pero por encima de 1 GB es un lujo y por encima de 2 GB es un despercicio para un usuario domestico.

🗨️ 2
BocaDePez
BocaDePez
🗨️ 1
BocaDePez
BocaDePez

Y las memorias de la grafica, tambien iran integradas en el procesador? O las compartira con la cpu?

Aun asi, ahora mismo una grafica media-alta se monta con ddr3, y las cpus con ddr2.

No se, habra que esperar a ver los primeros procesadores SonGoku.. digo.. "Fusion" y su rendimiento, aunque a primera vista, me huele a un intento de amd para acaparar el mercado de las grafica integradas, sin que ello reporte un beneficio real sobre lo que tenemos actualmente.

Y un paso atras, hacia los tiempos en los que no existian los clonicos, porque X fabricante hacia todo el equipo.

🗨️ 2
Kalimist

usarán la memoria compartida con la CPU, ten en cuenta que no serán gráficas de alto rendimiento sino una solución todo en uno, para abaratar costes.

No todo el mundo necesita una super gráfica 3D

🗨️ 1
goodgrief

Todo el mundo no, pero el maldito usuario que solo sabe meter cosas en el emule y poner los sims 2 si que lo exige... pues no me he cansado yo de vender graficas por el dichoso juego de las narices...
Hay tres tipos de usuarios... los que se se gastan lo menos posible, grafica integrada, poca memoria cpu gama baja.... el usuario de... por uno que me compro me compro lo ultimo.. un 4600 dual core para chatear.... hace 2 semanas vendi uno asi... y el usario que realmente sabe lo que necesita por que sabe que va a hacer... de esos en 2 años me he encontrado pocos...
Vamos que una grafica "intregada" con una cpu lo unico que conseguira es gastar mas pasta a la larga para poder jugar al juego chorra del momento...

BocaDePez
BocaDePez

dependera de los resultados que de, quiza implique un salto como fue los 64

🗨️ 3
usuario-eliminado

realmente el paso a 64bit ha sido un cacareo de la industria, porque realmente la caracteristica más notable que diferencia un 32bit a un 64bit es la capacidad de poder direccionar ingentes cantidades de memoria ram.

🗨️ 2
heffeque

Bueno... yo no diría que es sólo eso. Hay mucho más en esto de los 64bits, pero la industria del software no se esfuerza demasiado en darle uso porque la gente no mete sistemas operativos con ese soporte y estos usuarios no lo meten porque no hay mucho soporte para estos 64bits. Es el pez que se muerde la cola.

De todas formas esto va cambiando poco a poco. Los que usan Unix/Linux son pioneros en intentar sacarle todo el jugo posible a los 64bits. He visto benchmarks de codificación de mp3 que tardaban casi prácticamente la mitad de tiempo usando 64bits que con 32. Está claro que no todo puede aprovechar de esa manera los 64bits ya que se utilizan para instrucciones muy complejas, nada que ver con otros programas que se basan más en la repetición de procesos simples, pero qué queréis que os diga: codificación/decodificación de audio/vídeo, programas de compresión, tratamiento de imágenes, etc darán un uso muy decente a los 64bits según se vaya dando más soporte.

Y Mac últimamente también le está sacando cada vez más y más jugo, es más, los últimos MacBook Pro llevan Core 2 Duo que ya traen soporte para 64bits, no como los Core Solo y Core Duo que no lo traían. Es, entre otras cosas, lo que hace que digan que con la misma frecuencia de reloj se pueda llegar a tener "hasta" un 39% más de velocidad de procesamiento, algo que parece exagerado pero que puede ser bien cierto ya que cada versión nueva del Mac OS X va dandole más y mejor uso a los 64bits. También influye que los nuevos MacBook Pro llevan el doble de RAM que las versiones anteriores, jeje :-P

¿Quién falta? Pues... hombre... M$ ya sacó una versión del XP para 64bits pero por desgracia la diferencia de rendimiento, en vez de mejorar, a decrecido en la mayoría de las ocasiones y ha mejorado en muy pocas. A mi parecer lo que impulsará a los ventaneros más a tirar de 64 bits, mal que nos pese, va a ser el Vista ya que tanto la versión de 32bits como la de 64 bits van a tener prácticamente el mismo punto de partida en cuanto a desarrollo de aplicaciones, software, drivers, etc.

🗨️ 1
usuario-eliminado

"con la misma frecuencia de reloj se pueda llegar a tener "hasta" un 39% más de velocidad"

me vas a permitir que te diga q esto no es del todo cierto, en el sentido de que este "avance" no es propio de los 64bit, sino del diseño del procesador, ya que esta diferencia se puede ver entre los athlonXP y los pentiumIV o con los antiguos athlon, ya que un XP es capaz de procesar mas instrucciones por ciclo de reloj.

de ahí las denominaciones que amd pone a sus procesadores, ya que un athlonxp 2600+ significa que para que un athlon thunderbird tuviera el mismo rendimiento tendría que trabajar a 2600MHz, aunque el athlonxp trabaje a 1917MHz, o cualquier otro procesador de amd con la denominacion xxxxx+, el 64x2 3800+ lo mismo, a 2GHz rinde como lo haria un athlon a 3800MHz.

BocaDePez
BocaDePez

Intel está perdida.

Si no se limitan a la gama baja, esto puede ser toda una revolucion.

🗨️ 2
BocaDePez
BocaDePez

Intel perdida ? xD

Veremos la contra de AMD a los Intel Core 2 Duo, y proximamente a los procesadores Quad.

Para que AMD pueda lanzar con conviccion cosas de este tipo en el futuro, primero ha de convencer en el presente, y ahora mismo no convence mucho.

🗨️ 1
joseangel

Durante 3 años Intel no ha convencido a nadie (de hecho ha sido el hazmereir de la industria) y ahora es el rey. Esto, como todo, cambia con el tiempo.

Bueno, las afiliaciones a partidos politicos y a los equipos de futbol no cambian y son independientes de lo mal que lo hagan. Pero esto es la excepcion a una regla muy extendida del cambio segun lo bien o mal que se hace.

BocaDePez
BocaDePez

Hasta el 2009 no salen. Para entonces puede pasar de todo...............................

🗨️ 4
rezze

Ya te digo esto puede ser el puff del siglo como el cell de la PS3 que se retaaaaaaarda y retardaaaaaa y como muchos nos empezamos a imaginar demasiado avance innecesario e incapaces de darles cabida en una video consola.
Es mas,como bien dicen ,en estos Pc´s (?) El cambio de grafica significara un cambio de cpu o viceversa encareciendo el coste final pero unificando costes para el productor,con lo que podria suponer un abaratamiento final para el producto final......a ver si me explico,XD....si el productor de el cpu de marras es AMD y en un mismo cpu mete una grafica y una cpu ,pues abarata costes de produccion costes de material y un largo etc de todo lo demas.....
El tiempo dara la razon ....

🗨️ 2
kaleth

Hombre, si quieres cambiar de gráfica entiendo que su funcionamiento sería semejante al de las gráficas integradas en placa, donde si clavas una aceleradora gráfica externa le dices cual de las dos quieres usar ( o incluso puedes usar las dos para tener doble pantalla ).
Si cambiaras de CPU entonces sí, eso implicaría un cambio de tarjeta gráfica; pero es muy probable que estos nuevos modelos de CPU+GPU funcionasen sobre un socket especial para ellas, así que no tendríamos más remedio que adquirir otro CPU+GPU.
Eso sin contar que, quizá, todo lo que fabricase AMD a partir de ese momento fuese CPU+GPU, o que es posible que fuese disminuyendo su fabricación de CPUs normales en favor de este nuevo formato.

BocaDePez
BocaDePez

Yo que sepa Cell lleva fabricándose desde el 2005 y ya se usa en servidores de IBM. Los problemas de la PS3 son con el Blue-Ray, no con el Cell. Dentro de poco asistiremos a una explosión de productos con Cell incluido: teléfonos móviles, tablets, UMPC, cámaras de video en alta resolución... evidentemente esos Cell tendrán menos núcleos y a menor frecuencia. Pero si yo fuera Intel temería por IBM, no por AMD.

joseangel

Efectivamente, para entonces Intel andará con la tecnología de 32 nanometros a la puerta de la esquina. Vamos que podrían integrar sus chips de procesador y grafico en el mismo paquetito/cucaracha y ni nos enteraríamos.

BocaDePez
BocaDePez

Me pareceria perfecto si la gpu del procesador se pudiese acompañar de otra tarjeta de video pci express o agp o cualquier cosa. De no ser asi me pareceria un poco caro sustituir el procesador para cambiar la tarjeta grafica.

🗨️ 1
Shortshot

Supongo que este nuevo sistema implicaría nueva arquitectura y por tanto cambio de placa base, ya que si el proceso de GPU luego tiene que ir a una VGA "externa al procesador", habría un cuello de botella que casi haría inservible el invento.

Lo ideal sería que las nuevas placas para soportar estas CPUs tuvieran integradas las I/O de video (digitales) en el propio bus del sistema.

willsmith

Luego habria que ver esas temperaturas del procesador

🗨️ 3
usuario-eliminado

supongo que la superficie del procesador sería superior a la de los actuales, por lo tanto habría menos problemas para disipar el calor, aunque yo estoy gratamente sorprendido de lo poco que se calienta, en mi caso, un athlon64x2 3800+, que aun dandole cera no llega a las temperaturas que alcanzaban mis "antiguos" athlonxp 2600+ y sempron 2600+.

🗨️ 1
BocaDePez
BocaDePez

Hombre, supongo que habran hecho las pruebas pertinentes en cuestión de la temperatura que va a tener que disipar. Yo todavia no lo veo muy claro en este sentido. Me veo comprando neveras para el micro xD

En cualquier caso, si consiguen hacer eso sin tener ningun problema será una pasada xD

BocaDePez
BocaDePez

Es evidente, se usa el hueco que deja la gráfica para poner un ventilador gigante xDD

BocaDePez
BocaDePez

Lo que habra que ver es cuanto depende la GPU de ATI de sus drivers sofware, porque de ser mucho como se sospecha ... la ganancia de rendimiento por usar buses mas rapidos sera minima comparada con PCI-E.

Recordemos tarjetas como ATI o nVidia guardan grandes secretos en su entramado software, secretos que hacen que grandes hackers en Linux sean incapaces de obtener el maximo rendimiento, funcionalidad y usabilidad de estas tarjetas 3d.

Salu2.

FIREB0Y

Lo que yo pienso es que desde hace un tiempo, el tema de la velocidad de procesador se ha quedado un poco estancada. Lo unico que ahora hacen es modificar otras cosas, como velocidad de bus, etc... o sea, intentan hacer cambios en la arquitectura para sacarle mas jugo a esos micros que no son capaces ya de subir hasta mas alla de los 4 Ghz. Eso es bueno, porque como ya decia un conocido anuncio, la potencia sin control no vale de nada. En PC, cuando yo empece, todo era una carrera por ver quien sacaba mas Mhz, con una arquitectura antediluviana informaticamente hablando, yo por aquel entonces tenia(y sigo teniendo) Amiga, y las cosas que con un P100 no eran capaces de moverse, con un A1200 a 14 Mhz y algo de memoria FAST y se movian mas que sobradas. Que estaban mal programadas? Puede ser. Que la arquitectura era totalmente distinta? A eso queria yo llegar. Ojala hoy en dia existiese una arquitectura similar a la de los Amiga, con la potencia de Mhz de un PC. Si, ya se que existen los Pegasus y los AmigaOne, de eso no me olvido, lo unico que hoy en dia somos todos PCeros, y en mayoria Windowseros...

Puede que me llameis ANTI-PC, pero en muchos casos me gustaria que el Amiga volviera a resurgir con la fuerza que tuvo hace unos años...

P.D. Ya se que existe el MAC, no me olvido de ellos...

🗨️ 7
usuario-eliminado

como he puesto mas arriba, lo que importan no son los megaherzios, sino las instrucciones que pueden ser procesadas por ciclo de reloj. si se aumenta esto, no seria necesario subir los MHz.

Krigan

¿Qué diferencias hay entre un PC de hoy día y un Amiga?.

🗨️ 3
FIREB0Y

A que te refieres?

Si es por la arquitectura, en un Amiga desde luego es excepcional. En ningun otro equipo he tenido 10 sesiones del mismo programa, con diferentes resoluciones, a la vez en pantalla, cada una haciendo una determinada cosa(unas copiando, otras comprimiendo, otras oyendo musica... con tan solo una aceleradora a 50 Mhz, y 16 MB de memoria extra, y sin tirar de memoria virtual.

Luego el arranque: En un Pegasus, he visto arrancar el SO en menos de 3 segundos(casi le costo mas al monitor adaptarse a la nueva resolucion que el arranque en si). En PC aun estoy esperando a ver eso. Y no me refiero a Linux, porque incluso asi en Linux tampoco lo he visto.

Hay muchas cosas, siempre he tenido claro que cada ordenador/sistema tiene sus ventajas e inconvenientes, pero cuando di el salto a PC, la verdad es que me quede un poco decepcionado porque lo unico que parecian saber hacer es "multitarea" a base de Mhz, con 400 Mhz podias tener la multitarea de un Amiga 1200 a pelo.

Resumiendo(no soy un gran tecnico en sistemas, solo un simple usuario), que yo veia la arquitectura de PC como un "una entrada y una salida de datos, pero la ostia de rapido", mientras que el amiga era mas del tipo "multiples entradas, multiples salidas". Y hoy en dia lo sigo viendo, aunque la verdad es que de Amiga queda poco... No lo suficiente para interesar al usuario medio, metido hasta las trancas en Win o alguna distribucion facilita de Linux.

Si en algo ofendo a alguien, lo siento. Solo es mi manera de pensar.

Un saludo.

🗨️ 2
Krigan

No tengo mucho conocimiento de cómo era la arquitectura Amiga, pero de siempre he entendido que se caracterizaba por tener muy buenos subsistemas de vídeo y sonido, en una época en la que el PC no tenía un buen subsistema de vídeo, y muchos PCs ni siquiera tenían tarjeta de sonido.

Y de ahí venía mi pregunta, porque las cosas han cambiado a lo largo de los años (de muchos años) en el PC, y hoy día las tarjetas gráficas de gama alta de los PCs se usan para hacer las superproducciones de Hollywood (antes se usaban estaciones de Silicon Graphics), y de tarjetas de sonido hay también auténticas maravillas.

Tal y como yo lo veo, un PC de hoy día es, en parte, como eran antes los Amiga.

Postdata: para comparar tiempos de arranque, habría que arrancar el mismo SO. Hay versión de Linux para Amiga, sería cuestión de ver cuánto tarda en arrancar Linux en Amiga y en PC.

🗨️ 1
FIREB0Y

Bueno, es verdad que el mercado de los PC ha evolucionado, mientras que el de Amiga se quedo estancado hace muchos años tambien, con lo que se han ido sacando cosas con cuentagotas y dirigidas a un publico casi acerrimo por el Workbench(SO oficial del Amiga).

Desde luego, es indudable que hoy en dia un PC puede ser una verdadera estacion multimedia, por lo que tu dices: hay cada vez mas y mejores componentes que alivian la carga del procesador, el cual simplemente "reparte" las tareas.

Desde luego es lo que pasa cuando hay una masificacion; mejor dicho, cuando hay diferentes fabricantes para una misma maquina, que ademas se ha extendido mundialmente. Existe una competencia, que luego resulta beneficiosa para todos: para los usuarios, porque bajan los precios; y para los fabricantes porque los venden masivamente. En el caso de Amiga existio. Ahora ya no, desde luego. Que yo sepa, Amiga depende de una sola empresa, que pone los precios que le da la gana, y que ademas de la esencia Amiguera ya tiene muy poquito, se asemeja mas a placas medianamente obsoletas de PC con algunos apaños y añadidos para que funcione el AmigaOS, y ademas a unos precios en algunos casos excesivos.

Un ejemplo es: Las famosas disqueteras de Amiga. Esas disqueteras, bueno tanto las disqueteras como la controladora, se hicieron famosas porque ya incluian en su dia lo que luego en PC era "todo un avance tecnologico", el tema de la autoinsercion. Desde que se invento el Amiga 1000, ya se incluia de serie una disquetera que "reconocia" automaticamente cuando se insertaba un disquette. Hoy en dia el tema del "autoreconocimiento" es un estandar, tanto en CDs y DVDs como en los dispositivos USB. En PC, todos sabemos que ni de coña podemos insertar un disquette y esperar que el SO acceda a el automaticamente. Si, ya se que el disquette es algo ya mas que obsoleto, pero pensad que estamos hablando de una tecnologia que existia en 1986, cuando salio el 1er Amiga(creo que los MAC de entonces tambien llevaban algo parecido, pero mas a lo bestia: Podias incluso sacar el disco desde el SO, con una disquetera motorizada)

Otra de las ventajas que tenia era que estaba pensado como un ordenador "para casa", ya que su salida de video era PAL/NTSC. Seguro que si conoceis a alguna persona que haga montajes de video desde hace algunos añitos, seguramente tendria un Amiga 4000 con el SCALA, un programa especializado en montaje de video. Podias usar la misma salida del Amiga en una mesa de montaje, sin tener que hacer cambios de VGA-PAL ni nada parecido.

Si, esto puede parecer que sea toda una ODA al Amiga, pero aun con todos los avances que hay hoy en dia en PCs, sigue gustandome y ojala pudiera resurgir con fuerza, aunque fuera como un MAC mas... ;)

Si quieres puedo preguntar a un amigo mio que tiene un Amiga actual(Pegasus II) cuanto tarda en arrancarle una ubuntu o algo parecido, y comparamos ;)

Un saludo.

Kalimist

jeje, es que el Amiga era un ordenador muy adelantado a su tiempo; en esa época los PCs eran de 16 colores y sonido PC Speaker.

El Amiga tenia no se cuantos chips, uno para el sonido, otro para los gráficos, otro para cálculos matemáticos... Digamos que los PCs actuales cada vez se parecen más a los Amiga :)

Amiga es el paradigma de la arquitectura optimizada a tope.

🗨️ 1
Krigan

Es gracioso, no había leído tu comentario, pero he acabado poniendo lo mismo que tú ;-)

KarmaZenBuffer

una noticia interesante.

permitame aclarar que "quien" esta detras del jugoso mercado de graficos y CPUs, es intel, lleva tiempo intentando buscar una "solucion" aceptable. (y ha hecho algunos intentos interesantes)

por lo pronto creo que intel es el mayor distribuidor de chips graficos para PC... (por lo menos en OEM.) y ahora a adquirido a PowerVR, y varios ingenieros que "tal vez" tengan buenas ideas..

(recuerden aunque hace ya muchos años, el cambio de Nvidea, o salto en ventas y rendimiento se produjo tiempo despues de la escapada ( o fichaje) de personal de SUN graphics...)

por tanto, creo que comente algo hace tiempo, el mercado estara interesante...

estamos llegando al max de rendimiento VISUAL, (practico... en entornos domesticos ) , es dificil distinguir entre un chip grafico de una XBOX 360 o una ATI 1900XT o una Nvidea 7900... aunque estos dos ultimos son mejores, digamos que todos cumplen su funcion.

ATI creo que ha visto "futuros" problemas, si intel ademas de ser el mayor distribuidor de chips discretos en VGA integradas, ahora se mete ha diseñar chips graficos que funcionen razonablemente bien en los juegos, reproduzca ALTA definicion y etc etc..

Este tipo de pensamientos integradores GPU + CPU no seria posible sin los potentisimos DUALES, que permiten dedicar parte de... digamos un max de 130 W en el encapsulado... dedicar 60W a una CPU dual y otros 60 W a la GPU..

por que no se piesen algunos que vamos a ver GPU integradas similares a 1900 o 7900, supongo yo.. (permitanme ... la licencia... ;-) ) que seran chips graficos EQUIVALENTES a una ATI 1600. o una 7600. y creo que ya estoy exagerando... como mucho ESO... mas no pueden meter en el mismo nucleo...

Eso si, tendran proteccion para edicion de VIDE HD y etc etc.. yo creo que SI.

PD: las fechas no se las creen ni ellos. ;-)

🗨️ 5
Frankie2004

Ufff ... ¡qué calor! ¿Alguien tiene nitrógeno líquido a mano?

🗨️ 4
BocaDePez
BocaDePez

jejeje!!! Congelar a Karmazen a 0 grados kelvin y luego echarlo a un pozo de lava??? Seguro que sus pedazos se recompodrian como el Terminator 2... y volveria a las andadas...

Eso si, imaginación tiene, pero idea de arquitectura!!!! Que tendra que ver el procesamiento de instrucciones con la paralizacion de procesamiento de imagenes... Vamos a diseñar una CPU con tropecientos pipelines, muchos Shadows units... y va a codificar audio o hacer modelos probabilisticos a la velocidad de la leche... Cada unidad esta hecha para satisfacer un trabajo diferente de una forma optima!!!! Luego no esperes hibridos que no satisfagan nada...

Voy a hacer un modelo mixto entre el Reanult de Alonso y la excavadora de las obras de la M-30 para que Galladon acabe las obras en un pis-pas.... y llegue el metro (L-7) a Valencia ....

En fin, si le dejaran el guion Lost, seria aun mas imcomprensible y bizarro.

BocaDePez
BocaDePez

evidenteme la mayor parte va a dedicado a karma-choman-Zen.... y era paralelizando no paralizando... como no se puede editar...

KarmaZenBuffer

No creo que haga falta... tenga en cuenta que si se vendieron la serie 9xx y con un ventilador de serie bastaba... digamos que para un DUAL core DUO + VGA. con disipadores del estilo de un ZALMAN 9500 o nintja o terlmaright... todos con heat pipes. seria suficiente.

Supongo que se refieran mas bien a soluciones integradas.. un poco mejores que las actuales, pero NO para HARDGAMERS.

PD: el pez no se entera ;-)---

🗨️ 1
goodgrief

Un intel 915 con el cooler de serie se pone en idle a 50ºC, incluso para un usario final, de navegar, chatear y de word es demasiada temperatura cuando el sistema esta corriendo....

Markinos

Me gustaría ver cuánto calienta eso... y el tipo de refrigeración que llevará...

🗨️ 1
BocaDePez
BocaDePez

Imaginate que en vez de un procesador de dos nucleos, tiene un nucleo y una GPU. No se cifras aproximadas pero supongo que el numero de transistores sera aproximado, asi que vendria a calentarse igual. Y en caso de que sean muchos mas transistores, entonces compara con uno de 4 nucleos (si, ya se que de eso de momento solo lo tiene intel pero supongo que amd cuando vaya a sacar esto habra dado un salto cualitativo importante).

Zaiko

Y la memoria que?? será compartida con la ram??. Habrá que poner 10 modulos de ram para que funcione perfectamente??

🗨️ 4
Krigan

No tiene porqué. La ram "normal" y la de vídeo se pueden "separar" por su espacio de direcciones (que tengan asignado un rango de direcciones distinto). De hecho, desde siempre los PCs han funcionado así.

🗨️ 2
Shortshot

Es cierto, pero yo haría algún matiz :-)

Antes del modo protegido era efectivamente así (la VRAM comenzaba en segmentos determinados,B800:0000 para texto,y C800:0000 para gráficos, si no recuerdo mal).

Una vez llega el direccionamiento del modo protegido, ya esa "compartición" se hace de otra forma, no separando por direcciones, ya que cada aplicación tiene su espacio virtual de 32bits (4 GB) de memoria, que no son reales. Digamos que la separación es "hardware".

Pero vamos que en esencia tienes razón, desde que existe el bus PCI se puede compartir perfectamente la RAM por varios dispositivos (las tarjetas de sonido, gráficos integradas en placa, etc. lo hacen así sin problemas).

🗨️ 1
Krigan

Es incuestionablemente cierto lo que acabas de señalar. Sin embargo, creo que al otro le preocupa sobre todo que la ram de vídeo pueda ser de mayor calidad, y conectada a la GPU (que va a estar en el mismo chip que la CPU) por un bus más rápido.

Lo que tú dices es el direccionamiento de aplicaciones. Sin embargo, a cada dirección virtual le corresponde una dirección física. Te pongo un ejemplo:

El ordenador arranca, y a la memoria de vídeo se le asigna (por ejemplo) el rango de direcciones físicas de 32 megas a 64 megas. Todo lo que vaya a esas direcciones físicas (que no tienen por qué ser las mismas que las virtuales que tú decías) puede ir por su propio bus (AGP, por ejemplo), y por supuesto irá a sus propios chips (que pueden ser de mayor calidad que los de la ram "normal").

Las aplicaciones no saben nada de eso, pero el procesador y el bus de memoria sí lo saben (el hardware que tú decías), y eso permite que la ram de vídeo sea de mayor calidad, si así se desea.

Encantado de verte de nuevo :-)

KarmaZenBuffer

en los portatiles puede ser compartida.

en la XBOX es compartida. teniendo creo 10 MB en chip VGA de ATI y los otros 500 Mb en sistema.

digamos que es transparente el procedimiento como explican mas abajo.