Aller au contenu
Halo.fr Forums
  • Pub bloquée :(

--------Le Bar de Red devil 2 --------


Vincent14

Messages recommandés

Gomo, à l'origine, un Geek, c'est un passionné (mais pas qu'un peu), d'un truc précis, donc bon, ça peut être autant un cinéphile qu'un WoWeur ahah.. M'enfin bon maintenant les gens voient plus (+) un geek comme un nolife.

Bah justement, ça s'appliquait surtout pour les mecs qui aimaient les trains, la SF, les comics ou l'informatique. Comme les "nerds" mais sans le côté "premier de la classe/mathématiques" et en un peu plus social.

Pour les cinéphiles, c'est tendancieux. J'ai du mal à croire qu'un bobo ne jurant que par la nouvelle vague est un "geek".

Pour ma part, j'ai surtout l'impression qu'on parle de "geek" ou "nolife" pour le "lolz" ou insulter quelqu'un. En DUT SRC (multimédia !), un type qui utilisait le net pendant 3 heures pour aller sur MSN et JV.com était appelé "geek". C'est triste.

Bon, et puisqu'il y a un instant geek/nerd :

moss3.jpg

Lien vers le commentaire

Oui tu as complètement raison, le problème étant que les français sont trop cons pour faire la distinction geek/nerd et utilisent généralement le second (plutôt neutre) pour le premier (plutôt péjoratif) mais dans un sens assez dévoyé, nerd désignant généralement quelqu'un de brillant mais solitaire souvent passionné de technique et de sciences.

Lien vers le commentaire
Ouais fin ça reste de la branlette pour gens qui savent pas trop quoi faire de leur pognon.

Désolé d'acheter ce qui me plait, ce genre de commentaires gratuits on peut franchement les placer à tous les niveaux ^^'

C'est franchement une amélioration du jeu non négligeable, ça surpasse de loin l'effet donné par des filtres anti-aliasing, un filtrage anistropique et des textures haute résolution combinés. Des jeux merdiques graphiquement en 2D deviennent tout à coup excellents en 3D. De plus, 500€ est le prix d'une carte graphique de jeu l'investissement est donc bien justifié sachant qu'en plus ce matériel peut facilement être utilisé à d'autres fins. L'écran en lui-même permet de faire du dual screen, ou alors l'investissement est très très amorti si il s'agit d'un achat de premier écran. Un écran 120Hz est également extrêmement appréciable hors 3D, à ce niveau beaucoup de critères de qualité d'image (comme ceux qui jugent du ghosting) n'ont même plus de sens comparé à des écrans "normaux". Tout est beaucoup plus fluide, ce qui réduit également la fatigue occulaire. Les lunettes elles sont un investissement qui se regagnera dans le futur, pour être passé chez EVS (entreprise qui a en gros le monopole des technologies de retransmission et progressivement aussi de studio), les graphes projettés montrent que le passage 2D/3D suit exactement le même schéma que le passage SD/HD.

Bref, c'est très loin d'être gadget... personnellement je ne pars pas en vacance, je mange peu et sobre, je ne fais rarement des sorties mais j'investi dans du matériel qui me le rend bien au quotidien et surtout à très long terme.

Lien vers le commentaire

Woah! Je ne suis donc pas le seul à avoir ce raisonnement! Je te suis parfaitement Mjonir.

Mais dans mon cas, je concentre mes ressources sur "l'utile": je prefere m'acheter un processeur pour gagner un peu plus de puissance plutot qu'une cg pour booster au max mes perfs en jeux.

Car la cg ne sert qu'au jeux (je me contente de ma gtx 260), un proco plus puissant me serait utile dans les differents rendu video et audio.

Aussi, il m'arrive de craquer, j'ai achete il y a un mois un ssd de 64go... Mais bon, on est jamais a l'abris d'une folie...

Tout ca pour dire que ca represente un investissement considerable, mais que le benefice est bien la.

Lien vers le commentaire
Car la cg ne sert qu'au jeux (je me contente de ma gtx 260), un proco plus puissant me serait utile dans les differents rendu video et audio.

Ah non, tu te trompes lourdement là dessus, et surtout pour l'exemple que tu signales! :o

De nos jours les GPUs des carte graphiques font bien plus que la génération d'images 3D, il s'agit véritablement d'unités de calcul surpuissantes pour le calcul vectoriel et matriciel. Il est possible de programmer des applications directement sur le GPU grâce à CUDA, c'est très utile pour des tas d'applications comme le calcul scientifique que je pratique.

... et aussi justement sur le traitement vidéo & audio. Déjà maintenant avec les carte graphiques depuis un moment le décodage/encodage des vidéo ne se fait plus sur le CPU, mais bien sur le GPU, largement plus puissant pour ce genre de tâches. Il n'appartient qu'à toi d'aller plus loin encore en prenant des logiciels ou patchant tes logiciels existants pour les rendre compatibles CUDA. Les gains en terme de vitesse de calcul sont monstrueux :)

EDIT: Pour info, dans les types de gains de vitesse tellement monstrueux que c'en est ridicule le record est "GPU-based Acceleration of the Genetic Algorithm", 2600 fois plus rapide sur le GPU :P

Personnellement le genre de calcul que je fais est plutôt "seulement" de l'ordre d'une à plusieurs centaines de fois plus rapide :P

Lien vers le commentaire

C'est même beaucoup plus qu'épargner le processeur, c'est avant tout augmenter la vitesse à laquelle les calculs sont réalisés. L'architecture des GPUs est très différente de celle des CPUs et est bien plus performante lorsqu'il s'agit de calcul mathématique complexe comme du calcul vectoriel ou matriciel. L'idée est donc non seulement d'avoir de la puissance de calcul supplémentaire en ajoutant les GPUs aux CPUs, mais également de faire tourner ces calculs bien plus vite! (Souvent des dizaines, voire des centaines de fois plus vite! Comme je l'ai dit ça peut aller jusqu'à des milliers!)

Lien vers le commentaire
C'est franchement une amélioration du jeu non négligeable, ça surpasse de loin l'effet donné par des filtres anti-aliasing, un filtrage anistropique et des textures haute résolution combinés. Des jeux merdiques graphiquement en 2D deviennent tout à coup excellents en 3D.

Mouais c'est rigolo mais le problème reste que la plupart des jeux sont conçus pour consoles principalement et donc pas forcément conçus sérieusement pour exploiter la 3D. A voir comment les tv3d pourront faire pencher les dev là dessus.

De plus, 500€ est le prix d'une carte graphique de jeu l'investissement est donc bien justifié sachant qu'en plus ce matériel peut facilement être utilisé à d'autres fins. L'écran en lui-même permet de faire du dual screen, ou alors l'investissement est très très amorti si il s'agit d'un achat de premier écran. Un écran 120Hz est également extrêmement appréciable hors 3D, à ce niveau beaucoup de critères de qualité d'image (comme ceux qui jugent du ghosting) n'ont même plus de sens comparé à des écrans "normaux". Tout est beaucoup plus fluide, ce qui réduit également la fatigue occulaire. Les lunettes elles sont un investissement qui se regagnera dans le futur, pour être passé chez EVS (entreprise qui a en gros le monopole des technologies de retransmission et progressivement aussi de studio), les graphes projettés montrent que le passage 2D/3D suit exactement le même schéma que le passage SD/HD.

Mec t'as pas à essayer de justifier tes gadgets, et surtout pas auprès de moi, mais admets juste que c'est aujourd'hui loin d'être indispensable et que dans quelques mois (années?) la technologie sera à la fois beaucoup plus au point et beaucoup moins chère, c'est juste que ça te fait tripper de l'avoir avant tout le monde.

et d'où le : "Ouais fin ça reste de la branlette pour gens qui savent pas trop quoi faire de leur pognon" qui est plus un constat qu'une vraie critique.

Personnellement je ne pars pas en vacance, je mange peu et sobre, je ne fais rarement des sorties mais j'investi dans du matériel qui me le rend bien au quotidien et surtout à très long terme.

Heu, ouais, c'est pas juste triste ça ?

Lien vers le commentaire

Ah non, tu te trompes lourdement là dessus, et surtout pour l'exemple que tu signales! :o

De nos jours les GPUs des carte graphiques font bien plus que la génération d'images 3D, il s'agit véritablement d'unités de calcul surpuissantes pour le calcul vectoriel et matriciel. Il est possible de programmer des applications directement sur le GPU grâce à CUDA, c'est très utile pour des tas d'applications comme le calcul scientifique que je pratique.

... et aussi justement sur le traitement vidéo & audio. Déjà maintenant avec les carte graphiques depuis un moment le décodage/encodage des vidéo ne se fait plus sur le CPU, mais bien sur le GPU, largement plus puissant pour ce genre de tâches. Il n'appartient qu'à toi d'aller plus loin encore en prenant des logiciels ou patchant tes logiciels existants pour les rendre compatibles CUDA. Les gains en terme de vitesse de calcul sont monstrueux :)

EDIT: Pour info, dans les types de gains de vitesse tellement monstrueux que c'en est ridicule le record est "GPU-based Acceleration of the Genetic Algorithm", 2600 fois plus rapide sur le GPU :P

Personnellement le genre de calcul que je fais est plutôt "seulement" de l'ordre d'une à plusieurs centaines de fois plus rapide :P

Je connais cuda ^^, le truc, c'est qu'il n'existe aucun moteur de rendu digne de ce nom compatible avec cinema 4D, ou de truc utilisant pleinement la suite adobe (pour calculer des milliers de particules, c'est mon CPU qui trinque).

Mes besoins sont de créer, pas de convertir, sinon, je sais que badaboom existe :) .

PS: si tu me trouves un moteur de rendu pour C4D, ça peut m'intéresser!

Lien vers le commentaire
Mouais c'est rigolo mais le problème reste que la plupart des jeux sont conçus pour consoles principalement et donc pas forcément conçus sérieusement pour exploiter la 3D. A voir comment les tv3d pourront faire pencher les dev là dessus.

Pour le moment c'est plutôt les jeux les moins prévus pour la 3D qui ont les meilleurs rendus justement...

Mec t'as pas à essayer de justifier tes gadgets, et surtout pas auprès de moi, mais admets juste que c'est aujourd'hui loin d'être indispensable et que dans quelques mois (années?) la technologie sera à la fois beaucoup plus au point et beaucoup moins chère, c'est juste que ça te fait tripper de l'avoir avant tout le monde.

et d'où le : "Ouais fin ça reste de la branlette pour gens qui savent pas trop quoi faire de leur pognon" qui est plus un constat qu'une vraie critique.

Je réagis juste à ce que tu considères comme un "constat" qui est plutôt un n'importe quoi. Bien sûr que c'est loin d'être indispensable... ça s'appelle le loisir. Tu sous-entends que pour toi on pourrait tourner avec des graphismes de N64 que ça changerait rien, le reste c'est pas indispensable et c'est de la branlette?

La technologie sera TOUJOURS plus au point et TOUJOURS moins chère... pareil, avec une logique comme ça, t'as acheté ta N64 et t'es content toi ^^'

Ca n'a rien à voir avec le fait de frimer genre "j'l'ai avant tout le monde". C'est un achat tout à fait rentable et durable à tous les points, ce que je viens d'expliquer... c'est précisément en ce moment que l'achat sera le plus durable.

Heu, ouais, c'est pas juste triste ça ?

Est-ce que je devrais trouver triste que certains préfèrent passer 2 semaines à dépenser leur fric dans une ville à l'autre bout du monde plutôt que de faire un investissement concret et durable? Ca s'appelle les priorités ^^'

Je connais cuda ^^, le truc, c'est qu'il n'existe aucun moteur de rendu digne de ce nom compatible avec cinema 4D, ou de truc utilisant pleinement la suite adobe (pour calculer des milliers de particules, c'est mon CPU qui trinque).

Mes besoins sont de créer, pas de convertir, sinon, je sais que badaboom existe :) .

PS: si tu me trouves un moteur de rendu pour C4D, ça peut m'intéresser!

T'as jeté un coup d'oeil dans la CUDA showcase sur le site de nvidia?

Lien vers le commentaire
Il n'y a aucun lien pour pouvoir telecharger, on sait pas si c'est un projet ou un truc que l'on peut avoir, etc.

Eh bien à chaque fois quand tu cliques tu as les différents types de support disponibles.

C'est vrai qu'il faut garder à l'esprit qu'il s'agit d'une technologie assez neuve, le développement est encore à des stades de prototypes et de codes libres, c'est plutôt dirigé aux développeurs et aux scientifiques, pas encore au grand public.

Il faut dire qu'il s'agit d'un travail significatif, ce n'est pas comme si les GPUs étaient magiquement ajoutés à la puissance de calcul, le code doit être fortement modifié, débogué et optimisé pour s'adapter à la tâche. Si les gains n'étaient pas aussi épatants il me semble que ce serait même difficilement considéré.

Par exemple j'ai un modèle climatique en cours de programmation (enfin, il vient juste d'être terminé), j'avais fortement envisagé une implémentation CUDA mais ma deadline est début Avril... résultat c'est largement pas le temps que pour développer un bonus pareil, même contre le goût du travail bien fait :P

Lien vers le commentaire

Rejoindre la discussion

Vous pouvez poster dès maintenant et vous enregistrer plus tard. Si vous avez un compte, vous pouvez vous connecter ici pour poster avec votre profil

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
  • Pub bloquée :(
×
×
  • Créer...