Usuario: Contraseña:      ¿Olvidó la clave?   registrar
   Todos los mensajes (Acheron)


(1) 2 3 »


Re: Alguien con un AMD Ryzen?
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Hola de nuevo!

Yo tengo 2 equipos para computar que están todo el día encendidos (tan solo los apago cuando me voy a dormir, porque están en mi guarida como yo le llamo jeje). Uno de ellos, el principal que uso para todo y desde donde escribo con un i7 4770 con una GTX 1070 que lo tengo pensado actualizar cuando lleguen los 10nm a Intel.
Los i9 conocía la existencia de ellos, sin embargo me parece excesivo gastarme más de 1000€ en un solo componente (ya me pareció mucho gastarme casi 500 en la 1070 y eso que la cogí de Black Friday).
La única novedad que incluyen los i9 es el aumento de núcleos, un cambio en la jerarquía de caches (que puede que afecte a algun que otro proyecto para bien o para mal) y la inclusión una nueva FPU para AVX512 que por ahora no va a afectar a ningún proyecto.

El secundario es el que tengo pensado actualizar por el Ryzen, un A8 5600K con una HD7970 (un monstruo en Milkyway al tener 1TF en DP).

Después poseo otros 2 equipos más antiguos montados, pero solo los enciendo cuando quiero o necesito llegar rápidamente a alguna meta de algun proyecto (por ejemplo, conseguir alguna medalla de WCG antes de que termine el subproyecto)

ljfc2001

Yo también empece con un Quad Core a 2.4, el famoso Q6600 de Intel. Y cuando hice el cambio con el 4770 fue brutal. Si ahora puedo añadir 16 Hilos sera otro salto cuántico, en créditos/WU por día.

Segun Wu-prop, no parece tener problemas en ambos OSs y con buen rendimiento, similar a un Haswell

http://wuprop.boinc-af.org/results/du ... ed%29&tri=projet&sort=asc

Otro dato a tener en cuenta, es el poco cuidado que le esta poniendo Intel en el tema de la transferencia térmica del chip al Heatspreader, mientras que AMD usa una soldadura de alta calidad de Indio-Oro, Intel usa una pasta térmica normal, incluso en los proces de más alta gama...

Enviado el: 29/8/2017 19:03
Transferir el mensaje a otras aplicaciones Transferir a


Alguien con un AMD Ryzen?
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Que tal como va todo? Tanto tiempo de no pasar por aquí, eso sí no he dejado nunca de computar jeje.

Pues eso, quería preguntarles, si alguno de ustedes posee un AMD Ryzen. Estoy valorando en actualizar uno de mis equipos (un AMD A8 5600K) y visto lo visto lo que son los Ryzen 7, que pueden ser unas autenticas bestias para BOINC (16 tareas simultaneas en un solo equipo por apenas 500€, que gozada). No tendría dudas, de hecho ya tengo comprada la RAM de hace bastantes meses en vista de la previsión de subidas que iba a tener, si no fuera porque hace unos días, vi que existe un bug en los Ryzen en la segmentación de la memoria;

https://www.google.es/search?q=segfaul ... &sourceid=chrome&ie=UTF-8

En principio el bug se reproduce en Linux, bajo cargas pesadas de compilación, pero he visto reporte de otros users que también se reproduce en Windows y bajo cargas pesadas no solo de compilación.

Alguien del foro tiene un Ryzen y puede contar su experiencia?

El sistema operativo, seria indistintivo, ya que usaría el que mejor funcionase, si fuera Windows, usaria W10, y si fuera Linux, usaria Ubuntu.

P.D: En un par de días salgo de vacaciones y no volveré hasta dentro de unos días, si no muestro feedback estos días es por eso : )

Enviado el: 6/8/2017 17:48
Transferir el mensaje a otras aplicaciones Transferir a


Re: DUDAS EWERYWERE nuevo hardware
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
A que te refieres exactamente con sobrevalorada?

A ver, de Nvidia, va a ser lo mejor que vas a encontrar para computación, sin irte ya a la Titan (que por cierto, van a lanzar un modelo más Light y otro más Ultra respecto a la versión de Titan ya lanzada) si puedes permitirte una Titan pues perfecto, porque seria prácticamente como si tuvieses una Tesla, si no, esta seria la siguiente en cuanto rendimiento para computación, sin tener en cuenta las versiones Dual GPU, como las versiones GTX 590/690.

En cuanto a las de AMD, conozco perfectamente a la teoría y tengo entendido que la arquitectura GCN (o Southern Islands) que da vida a la serie 7000 son super para computación, pero nunca he tenido una AMD, así que a nivel personal desconozco como son, las pruebas sintéticas están ahí y dicen que son estupendas para computar eso sí.

P.D: Jeje, no hace falta tanto hombre . Si al fin y al cabo a mi me encanta explicar estas cosas jijij

Enviado el: 22/4/2013 21:26
Transferir el mensaje a otras aplicaciones Transferir a


Re: DUDAS EWERYWERE nuevo hardware
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Jeje, si la verdad es que es así. Las nuevas Kepler son menos adecuadas para computación, puesto que para equiparar a una Fermi, la Kepler va a tener que ser de una gama mucho más alta para compensar la perdida del enfoque de computación que ha tenido a favor de los gráficos.

Acotación:
La quadro

http://www.pccomponentes.com/pny_nvid ... adro_2000d_1gb_gddr5.html

Y las otras de nvidia , la serie 500, los precios estan un poco desfasados, ya no las encuentro.

y de AMD

La de 3.79TFlops, de nucleo Tahiti, dicen que es bastante fresca, para pertenecer a las Ati.

http://www.pccomponentes.com/sapphire ... with_boost_3gb_gddr5.html


La Quadro no!!!

La gama Quadro, es una gama que esta dirigida a diseño CAD y 3D! Están muy "sobrepreciadas" por el simple hecho de ser una gama dedicada a un sector profesional determinado.

Fijate, según Wikipedia;

http://en.wikipedia.org/wiki/Nvidia_Quadro#PCI_Express

La Quadro 2000D esta basada en el núcleo GF106, es decir un núcleo Fermi de segunda generación. Tiene 192 CUDA Cores con el Graphics Clock a 625 MHz y el Shader Clock a 1300 MHz y cuesta 439 € (!!!)

A comparación, yo tengo una humilde GTS 450, que esta basada en el mismo núcleo GF106, con 192 CUDA Cores con un Graphics Clock de 810 MHz y un Shader Clock de 1620 MHz, que en su momento me costo 110 €.

http://en.wikipedia.org/wiki/GeForce_400_Series#Products

Tiene el mismo núcleo, funciona a una frecuencia un 77 % mayor, y me costo casi un 400 % menos (!!)

Como ves, con una Quadro, saldrías perdiendo mucho. Arquitecturalmente son idénticas, lo único que las diferencia es que te permite instalar los drivers para la gama Quadro, y estos drivers te permiten hacer ciertas cosas orientadas a CAD, que los drivers GeForce no te permitirían...en lo demás arquitecturalmente son idénticas.

Si no, también, puedes fijarte en el disipador que tiene, que es de simple slot y bastante pequeñajo, algo con un disipador así de chiquitajo, mucha potencia no puede tener, no?

O te pillas una AMD de la serie 7000, o te pillas esta:

http://www.pccomponentes.com/zotac_ge ... r5___assassins_creed.html

Que fíjate lo que es, una 580 (arquitectura Fermi) y cuesta casi 100 € menos que la Quadro jeje

Enviado el: 21/4/2013 13:29
Transferir el mensaje a otras aplicaciones Transferir a


Re: DUDAS EWERYWERE nuevo hardware
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Por poner una nota aclaratoria;

Kepler (Serie 600 y Titan) es una evolución directa de Fermi (Series 400 y 500) pero tiene unos cambios sustanciales sobretodo en el manejo interno de los trabajos en la GPU, la organización de CUDA Cores y Frecuencias, que puede que sea lo que os esta confundiendo un poco.

Hace tiempo que en otro foro hice un análisis sobre la arquitectura, que si me permitís adjuntare a continuación, tal vez os sirva para aclararos un poco ;)

Cualquier duda que tengáis sobre hardware, sobretodo en tema de CPUs y GPUs, podéis preguntarme, no me dedico profesionalmente, pero es un tema que le tengo mucho pasión y llevo bastantes años dedicándoselos y me desenvuelvo bastante bien, de hecho se podría decir que mi pasión por el hardware me llevo a BOINC y viceversa jeje...

----------------------------------------------------

La arquitectura Kepler es el sucesor natural de la variante Fermi GF104/GF114, una variante que se focaliza más en gráficos que en computación, es decir, para gamers.

A alto nivel, un núcleo de Kepler (a los que nVidia llama SMXs), es significativamente más grande que los de GF104/GF114 (llamados por nVidia SMs). Cada núcleo de Kepler puede ejecutar 192 FMAs (Fused Multiply-Adds) de precisión simple por ciclo vs los 48 de GF104. GK104 equipa 8 de estos núcleos.

Open in new window

Núcleo (SM) de GF104/114 “Fermi”
-32 unidades CUDA, repartidas entre 2 pipelines
-16 unidades CUDA con capacidad FP64 (precisión doble)
-16 Unidades Load/Store
-16 Unidades de funciones especiales de Interpolación
-16 Unidades de funciones especiales (sin, cos, exp, tan…)
-8 Unidades de textura

Open in new window

Núcleo (SMX) de GK104 “Kepler”
-192 unidades CUDA, repartidas entre 6 pipelines
-8 unidades CUDA con capacidad FP64 (precisión doble)
-32 Unidades load/store, repartidas entre 2 pipelines
-32 Unidades de funciones especiales de interpolación, repartidas entre 2 pipelines
-32 Unidades de funciones especiales, repartidas entre 2 pipelines
-16 unidades de textura, repartidas entre 2 pipelines

En el aspecto de la jerarquía de memoria GK104 decrementa la capacidad de la cache y la memoria compartida en un 25 % sin embargo la capacidad de los bancos de registros se incrementa en un 50 % por lo que compensa en cuanto a balance para gráficos.

Otro cambio importante en lo que ha memoria se refiere, es en el ancho de banda de la memoria compartida y la cache de datos en que decrementa a 0.33B/FLOP con accesos de 32 bits, la mitad de GF104, pero hasta 3 veces inferior que GF100/GF110. Pero porque hacer esto, porque hacer un downgrade respecto a la generación anterior? La respuesta, un producto enfocado a gráficos, no computación.

En generaciones anteriores, nVidia usaba el mismo ASIC tanto para computación como para gráficos, sin embargo, actualmente no se puede optimizar para ambos a la vez, normalmente si intentas optimizar para uno, pierdes para el otro. Por ejemplo cuando se procesan gráficos, las tareas gráficas, están diseñadas para trabajar como largos pedazos de datos independientes, sean datos de pixeles, vértices o geometría, no se requiere de una comunicación intensiva entre cada SMX y casi todos los datos permanecen en los bancos de registros privados de cada SMX, sin embargo para las cargas de trabajo de propósito general (tareas científicas o de ingeniería) se basan en el comparto de datos. Por lo tanto, si para los gráficos, no es tan importante ese comparto de datos, reducimos el ancho de banda y ahorramos complejidad en el chip y por tanto valioso espacio en el silicio. Nvidia comenzó a divergir sus productos en dos líneas desde la segunda generación de Fermi los variantes de GF104/114 para gráficos y los variantes de GF100/110 para multipropósito: gráficos y computación, focalizando más en este último.

Otro cambio arquitectural que beneficia a gráficos es el scheduling (repartir y organizar las instrucciones a lo largo de todos los SMXs del chip). El compilador JIT (Just in Time) en los drivers, es ahora el encargado del scheduling de las instrucciones que se pueden ejecutar sin ninguna dependencia en los registros. En Fermi, el scheduling y el análisis de si las instrucciones contienen dependencias, es decir que no puedas adelantar la ejecución de una operación, porque necesitas el resultado de otra antes (C=B+A seguido de B=D*E, por ejemplo), se realizaba por hardware y ahora en GK104 se realiza por software, por lo que consigues eliminar una importante parte de lógica de control y por tanto volviendo a eliminar complejidad y espacio en el silicio sin perder mucha ventaja puesto que las cargas gráficas son más predictivas que las de computación y por tanto fáciles de compilar. GK104 aun así, sigue utilizando algoritmos de marcador (scoreboarding) para las instrucciones con mayor latencia como por ejemplo los accesos a memoria.

Open in new window

Otro gran cambio y que a muchos a sorprendido es el clocking en Kepler. Desde G80, nVidia a usado un diseño de dos dominios de clock en el chip. Estaba el “graphics clock” que gestionaba el hardware de función fija como los ROPs, la cache L2, schedulers o unidades de textura que se movía entre los 600 y 800 MHz y después el “hot clock” que gestionaba los núcleos (unidades CUDA, unidades load/store y unidades de funciones especiales) y que funcionaba al doble de la frecuencia del “graphics clock” es decir si el “graphics clock” era de 800 MHz el “hot clock” en los SMs era de 1600 MHz.

En Kepler se elimina el “hot clock” y se mueve a un solo dominio de clocking para todo el GPU. Reducir la frecuencia, directamente reduce la energía necesaria para el alto clocking de todos esos elementos y de la lógica que antes era necesaria para sincronizar los diferentes elementos, que antes funcionaban a diferentes frecuencias, además al no existir ahora frecuencias tan altas, también permite que la GPU se manufacture enteramente con transistores más eficientes, densos y con menos leakage (corrientes de fuga). Algún día comentare sobre los procesos de manufactura en la industria del semiconductor.

Open in new window

Con toda la lógica simplificada, eliminada y el paso de proceso de manufactura de 40 a 28 nm cada núcleo de GK104 puede contener más unidades de ejecución y así compensar la pérdida del “hot clock” en GK104 se cuadruplica la cantidad de shaders (de 512 a 1536) respecto a GF110. No solo eso, si no que ahora tiene 4 “warp schedulers” en vez de 2 capaces de enviar 2 instrucciones por ciclo cada uno y el banco de registros se ha doblado de 32K entradas a 64K entradas.

Sin embargo, que tenga 4 veces más hardware de ejecución, no significa que se cuadruplique el rendimiento vs. la anterior generación, recuerden que hemos perdido el hot clock, puesto que la mitad de esas unidades sirven para compensar la pérdida del hot clock.

Otro innovación, es que Kepler es la primera GPU de nVidia en incluir escalado dinámico de voltaje y frecuencia (DVFS), aproximaciones similares a las CPUs Sandy Bridge de Intel y Llano de AMD. El consumo de la GPU es medido directamente por los VRMs del PCB de la GPU, el driver es el responsable de seleccionar la frecuencia y el voltaje, basándose en el consumo y la temperatura como parámetros limite que pueden ser modificados por el usuario.

Open in new window

La frecuencia base de la GTX 680 es de 1006 MHz. Con DVFS puede incrementar la frecuencia base en incrementos de 13 MHz hasta 1110 MHz.

En cuanto a mejoras específicas para gráficos, podemos encontrar que los Polymorph Engine (unidades encargadas principalmente de la geometría y el teselado) se han mantenido a 1 por cada SMX, aún habiendo cuadruplicado el hardware de ejecución, sin embargo, este Polymorph Engine es mejorado respecto al de la versión de Fermi y ahora puede procesar los polígonos en la mitad de tiempo. La cantidad de motores de rasterización también se han doblado respecto a la generación anterior. Los ROPs (Raster Operation Units) se mantienen en el mismo número, sin embargo se ha mejorado ligeramente su eficiencia en compresión y combinación de polígonos. Estos ROPs permiten un ancho de bus de memoria de 256 bits y una cache L2 de 512KB.

El controlador de memoria de Kepler puede funcionar a un 50 % más de velocidad.

En cuanto a rendimiento en gráficos logra situarse muy cerca de la solución de mayor potencia single GPU de AMD de la serie 7000, y en muchos casos superandola.
Sin embargo en computación pierde mucho, situándose incluso por debajo de la solución de nVidia de la generación pasada, la GTX 580.
Y por ultimo en consumo y temperaturas, también logra posicionarse muy bien entre su predecesor y sus competidores.

En definitiva nVidia, a construido una arquitectura extremadamente eficiente y que elimina muchos de los errores de Fermi, con lo cual podría decirse que en esta generación ha ganado en muchos aspectos.

En resumen, es una arquitectura que esta más focalizada y optimizada para gráficos que es el principal consumidor que va a tener la gama GeForce, es una forma de proteger su Gama Tesla de computación, como ya hicieron al principio de esta capando la precisión doble (FP64) en las GeForce (Bussines is Bussines). El hecho de perder el Hot Clock, hace que se requieran el doble de CUDA Cores para equiparar a una Fermi, y el hecho de perder cierto scheduling por hardware, también hace que en teoría esta GPU sea más dependiente de la CPU que Fermi, al tener esta que realizar cierto trabajo con el driver, cuando antes se realizaba internamente en la GPU.

P.D: Porque se me descolocan todas las imágenes y me queda feo : (

Enviado el: 20/4/2013 23:44
Transferir el mensaje a otras aplicaciones Transferir a


Re: Se jubila «Roadrunner», el superordenador más potente en 2009
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
He de decir que veo con cierta pena la decomision de este supercomputador, puesto que debido a RoadRunner y el procesador que realizaba el verdadero calculo matemático (el Cell BroadBand Engine) ya que los AMD Opteron realizaban más bien las operaciones de I/O y para sustituir al pequeño PPE de bajo rendimiento del Cell...me inicie en el mundo del hardware y la computación (y luego en parte a BOINC debido a eso también) y que hoy día es una gran pasión en mi.

Si me permitís adjuntar una entrada que escribí en otro foro (no lo pongo aquí por si se considera SPAM ;) ) sobre esta supercomputadora y su decomision, así aportaría más información, sobre ella y los motivos de su decomision.

El motivo de su decomision, Agus, es porque no les sale a cuenta mantenerlo activo por temas de eficiencia energética, en la siguiente entrada trato de explicarlo.

Acotación:
No diría que pareciera que fuera ayer, pero si que diría, que parece que hace poco publicaba en este mismo foro un post, comentando y anunciando sobre la puesta en marcha de la supercomputadora más poderosa en el momento y que rompía la barrera del PetaFlop (10[sup]15[/sup] operaciones por segundo).

Ha pasado mucho tiempo realmente desde ese día y cuando publique la noticia apenas era un newbie en el tema de la computación, hardware y electrónica, sin embargo he de decir que entre otros factores esta supercomputadora y el Cell BroadBand Engine me lanzo al apasionamiento sobre este mundo, por lo que en cierta forma me conmueve el volver a publicar sobre RoadRunner.

El domingo, tras 5 años trabajando para el Laboratorio Nacional de los Alamos, sera apagada y desmantelada.

El propósito principal de RoadRunner (correcaminos en ingles) ha sido la simulación del envejecimiento, fiabilidad y mantenimiento del arsenal nuclear de USA (con esto se evita el realizar pruebas de campo nucleares). Aunque también ha sido utilizado para el modelado de virus, investigación sobre láseres y el universo, entre otras aplicaciones de seguramente ámbito clasificado.

RoadRunner costo 120M$ y esta compuesto por 296 racks (armarios de servidor) que ocupan un área de 560 m[sup]2[/sup] con 12.960 IBM PowerXCell8i (una versión de la CPU de PS3 para computación de alto rendimiento) y 6.480 AMD Opteron K8 (estos últimos solo realizaban tareas de I/O, los que realizaban el verdadero trabajo de computación eran los coprocesadores PowerXCell8i), consumiendo unos 2.35 MW. Fue la pionera en estrenar una arquitectura híbrida que probó y demostró, que era el tipo de arquitectura necesaria para seguir escalando en potencia de computación con eficiencia energética y que ha día de hoy y para el futuro sera la norma. Con lo que gracias a esto, el 25 de Mayo de 2008, se convirtió en la primera supercomputadora en romper la barrera del PetaFlop sostenido con una eficiencia energética sin precedentes.

El motivo por el que sera decomisionada, es por el simple hecho de que ya no es rentable seguir manteniendola. A día de hoy, RoadRunner, tal como posteaba hace unos meses sigue siendo muy rápida, esta en el puesto 22 de la lista TOP500. Sin embargo, su eficiencia energética, ya se ve muy sobrepasada por otras supercomputadoras, como Oakleaf-FX o Titan por nombrar un par. Por ejemplo, en términos de consumo energético RoadRunner cuesta aproximadamente 300$ por hora, mientras que Titan unos 60$, por lo que si Los Alamos, usase Titan en vez de RoadRunner a día de hoy, se ahorraría unos 2M$ anuales en la factura eléctrica y teniendo 17 veces más rendimiento.
Con esto se ve lo importante que es la ley de Moore y el uso de coprocesadores en la supercomputación actual.

Por ahora, el Laboratorio Nacional de los Alamos, trabajara con Cielo basada en CPUs AMD Opteron 6136 (Magny Cours)

En sus últimos días, los científicos harán experimentos con algoritmos de compresión y optimización de enrutado de datos, para mejorar las futuras supercomputadoras. Posteriormente sera desmantelada y la mayoría de sus componentes serán destruidos por trituración, más que nada por el hecho de que muchos de los cálculos que ha realizado y almacenado son de ámbito clasificado, aunque se ha dicho que algunas partes serán guardadas como recuerdo histórico.

Enviado el: 12/4/2013 0:48
Transferir el mensaje a otras aplicaciones Transferir a


Re: Fallo en URL para la descarga de tareas
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Una cosiwi

Ibercivis actualmente tiene solo un subproyecto activo? Porque desde hace ya tiempo, que cuando decido procesar un tiempito en Ibercivis solo se me bajan tareas de Wilson y aunque me gusta participar en todo tipo de proyectos, los números primos no es que me apasionen mucho y teniendo en cuenta que Ibercivis tiene subproyectos muy muy interesantes me gustaría poder procesarlos, pero es que solo se me bajan de Wilson siempre : ( Esto es que esta así o es algo mio?

P.D: En mi cuenta de Ibercivis están todos los subproyectos seleccionados :P

Enviado el: 30/1/2013 13:18
Transferir el mensaje a otras aplicaciones Transferir a


Re: NVidia GTX 650 Ti
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Acotación:

antoniko escribió:
tengo una duda existencial con lo de las gtx:
yo tendo una gtx 260, que me da menor rendimiento en gpu grid que una gtx 570.
pero no le mitad o menos como se esperaria viendo los cores cuda y velocidad que tiene cada una, es que nvidia cuantos mas cores cuda tienen son menos productivos??

pregunto esto en relacion a lo que dice carlesa 25 de las gtx 6xx


Es por la diferencia de arquitecturas.

La arquitectura GT200 (la que da vida a la serie 200 de nVidia) es muy diferente a la arquitectura Fermi (serie 400 y 500) y a su vez Kepler (serie 600).

Es difícil comparar GT200 con Fermi, por la gran diferencia de arquitecturas, aunque en conjunto total se ha de decir que un CUDA Core de Fermi, es más eficiente que uno de GT200.

En cuanto a Kepler respecto a Fermi, no es que sean menos eficientes, si no, que se ha perdido el "Shader Clock".

El "Shader Clock" desde G80 hasta Fermi, era la frecuencia a la que funcionaban los CUDA Cores, que era el doble de la frecuencia a la que funcionaba el resto del chip. Si el chip funcionaba a 800 MHz, los CUDA Cores funcionaban a 1600 MHz.

Con Kepler, esto se perdió (por temas de eficiencia energética) y ahora todo el chip funciona a la misma frecuencia, que en una 650 Ti de stock es de unos 925 MHz.

Es por eso que por ejemplo, sin tener en cuanta el resto de la arquitectura, el trabajo que hacen 2 CUDA Cores de Kepler, lo puede hacer uno de Fermi en un mismo instante dado.

Básicamente Kepler, ha sido una simplificación de la arquitectura Fermi (perdida del shader clock, pipeline más corto, perdida de chequeado de dependencia de instrucciones por hardware...) por tal de eliminar lógica, ahorrar transistores y espacio en silicio para así poder introducir más unidades de ejecución (CUDA Cores).

Enviado el: 3/12/2012 15:49
Transferir el mensaje a otras aplicaciones Transferir a


Re: Control en remoto de clientes boinc con Android
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
u.u que complicao xD

Bueno a ver si lo pruebo y a ver que tal, puesto que me iria bastante bien tener un cliente remoto para controlarlo cuando estoy en clase.

Gracias por la respuesta ;)

Enviado el: 10/4/2012 11:50
Transferir el mensaje a otras aplicaciones Transferir a


Re: Control en remoto de clientes boinc con Android
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Yo acabo de entrar en la generación Smartphone, aunque me pille un Sony Xperia :P.

Me he bajado y instalado la aplicación esta de AndroBOINC, pero tengo una duda.

Entro en la aplicación y le doy ha "Connect" luego a "ad new host" vale, a partir de aquí, que hago? Donde pone host nickname, address y password que pongo? Lo que si que me sale es el numero de puerto (que por ahora no se si sera el correcto) y no se si a partir de aquí tendré que hacer algo más.

Gracias de antemano

P.D: He leído por hay, de cuando se lanzo la aplicación, que mucha gente tuvo que cambiar el mail o algo así y que perdió los créditos que había conseguido previamente, eso puede pasar? O ya lo arreglaron, puesto que eran mensajes de 2010...No me apetece mucho perder los créditos justo ahora que rompí la barrera de los 2M =D :-/

Enviado el: 5/4/2012 9:09
Transferir el mensaje a otras aplicaciones Transferir a


Re: WCG Beta para GPU
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
2.1 piden?

Joer, pues eso reduce mucho el numero de GPUs compatibles :/

En ese caso tan solo las variantes derivadas del GF104 de la familia Fermi (en caso de Nvidia, en AMD desconozco) serian compatibles con estas WU.

En esta lista también podéis ver las GPUs con capacidad de computo 2.1

http://developer.nvidia.com/cuda-gpus

Sí, que dicen, por lo que he leido, que al comenzar la WU, comprueba la capacidad de computo de tu GPU y si tiene "potencia" suficiente para procesarla, en caso negativo, es cuando da error, al segundo de comenzar.

1) Has sufficient performance as determined by a small benchmark run at the start of a workunit. If the GPU fails the test, the application will exit and be reported as an error. You can check for this condition in the log file that is returned to the server by going to the Result Status page (https://secure.worldcommunitygrid.org/ms/viewBoincResults.do) and clicking on the link under 'Status' for the appropriate result.

2) It also must support the OpenCl extension cl_khr_local_int32_base_atomics. This is also checked at the beginning of the workunit and, if it fails, will be reported as an error and recorded in the log file.

Enviado el: 14/3/2012 12:16
Transferir el mensaje a otras aplicaciones Transferir a


Re: Drivers 295.xx para nVidia: Errores en PrimeGrid y GPUGrid
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Para los que teníais problemas, por si os interesa, Nvidia me acaba de enviar un mensaje con actualización de drivers a 296.10.

Ha ver si con estos se os soluciona :-/

Enviado el: 13/3/2012 22:43
Transferir el mensaje a otras aplicaciones Transferir a


Re: Drivers 295.xx para nVidia: Errores en PrimeGrid y GPUGrid
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Yo llevo con los 295.73 desde que salieron y tambien llevo varias semanas computando con GPUGrid y no me ha dado ningun problema de WU erroneas de momento. Tan solo una de ellas (una long run) me dio error de calculo, y eso que comentais de que entra en suspension la pantalla tampoco nada... :/ (Tengo una GTS 450 bajo Win 7 x64)

Enviado el: 8/3/2012 21:26
Transferir el mensaje a otras aplicaciones Transferir a


Re: AQUA@home
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Los tiempos para las WUs del subproyecto "D-Wave's Redfield Open Quantum Simulation: Multi-Threaded v0.14 (mt4)" varían bastante de una a otra, como comentaba, había procesado una que tardo unas 30 horas en un Q6600, mientras que otra del mismo subproyecto me ha tardado unas 161 horas... Este proyecto esta bastante optimizado no obstante, no solo el hecho, de que creo que es el único proyecto que usa multihreading en una sola WU, si no que además esta optimizada para OSs de 64 bits...

Enviado el: 4/3/2011 12:15
Transferir el mensaje a otras aplicaciones Transferir a


Re: AQUA@home
Interesado en Boinc
Registrado:
6/5/2009 18:32
Grupo:
Usuarios Inscritos
Mensajes: 48
Ausente
Creo que bajo el mismo subproyecto este de "D-Wave Redfield Open Quantum Simulation" varían bastante los tiempos según las tareas.

En un Q6600 a velocidad de stock, una primera tarea que ha procesado de este subproyecto ha tardado unas 30 horas, ahora mismo esta procesando otra, que ya lleva casi 32 horas, y todavía va por el 42.831 % (aunque parece ser que el subproyecto esta dividido en 3 fases, la primera del 0 % al 40 % donde procesa bastante rápido, del 40 % a 50 y pico % donde se ralentiza bastante el proceso y de ese 50 y pico % hasta el final donde se vuelve ha acelerar bastante el proceso de la WU)

Enviado el: 18/2/2011 13:38
Transferir el mensaje a otras aplicaciones Transferir a



 Arriba
(1) 2 3 »




 

CANAL@Boinc 1997-2008  |  Diseño Rafa Hens sobre idea original de Fran | Reservados todos los derechos