The L2 Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Quand t'achete des Gros PC ! t'as les lunettes avec! GENIAL ! 1600 € ! Citer Lien vers le commentaire
Gomo Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Gomo, à l'origine, un Geek, c'est un passionné (mais pas qu'un peu), d'un truc précis, donc bon, ça peut être autant un cinéphile qu'un WoWeur ahah.. M'enfin bon maintenant les gens voient plus (+) un geek comme un nolife. Bah justement, ça s'appliquait surtout pour les mecs qui aimaient les trains, la SF, les comics ou l'informatique. Comme les "nerds" mais sans le côté "premier de la classe/mathématiques" et en un peu plus social. Pour les cinéphiles, c'est tendancieux. J'ai du mal à croire qu'un bobo ne jurant que par la nouvelle vague est un "geek". Pour ma part, j'ai surtout l'impression qu'on parle de "geek" ou "nolife" pour le "lolz" ou insulter quelqu'un. En DUT SRC (multimédia !), un type qui utilisait le net pendant 3 heures pour aller sur MSN et JV.com était appelé "geek". C'est triste. Bon, et puisqu'il y a un instant geek/nerd : Citer Lien vers le commentaire
BlueHunter Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Oui tu as complètement raison, le problème étant que les français sont trop cons pour faire la distinction geek/nerd et utilisent généralement le second (plutôt neutre) pour le premier (plutôt péjoratif) mais dans un sens assez dévoyé, nerd désignant généralement quelqu'un de brillant mais solitaire souvent passionné de technique et de sciences. Citer Lien vers le commentaire
Mjonir Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Ouais fin ça reste de la branlette pour gens qui savent pas trop quoi faire de leur pognon. Désolé d'acheter ce qui me plait, ce genre de commentaires gratuits on peut franchement les placer à tous les niveaux ^^' C'est franchement une amélioration du jeu non négligeable, ça surpasse de loin l'effet donné par des filtres anti-aliasing, un filtrage anistropique et des textures haute résolution combinés. Des jeux merdiques graphiquement en 2D deviennent tout à coup excellents en 3D. De plus, 500€ est le prix d'une carte graphique de jeu l'investissement est donc bien justifié sachant qu'en plus ce matériel peut facilement être utilisé à d'autres fins. L'écran en lui-même permet de faire du dual screen, ou alors l'investissement est très très amorti si il s'agit d'un achat de premier écran. Un écran 120Hz est également extrêmement appréciable hors 3D, à ce niveau beaucoup de critères de qualité d'image (comme ceux qui jugent du ghosting) n'ont même plus de sens comparé à des écrans "normaux". Tout est beaucoup plus fluide, ce qui réduit également la fatigue occulaire. Les lunettes elles sont un investissement qui se regagnera dans le futur, pour être passé chez EVS (entreprise qui a en gros le monopole des technologies de retransmission et progressivement aussi de studio), les graphes projettés montrent que le passage 2D/3D suit exactement le même schéma que le passage SD/HD. Bref, c'est très loin d'être gadget... personnellement je ne pars pas en vacance, je mange peu et sobre, je ne fais rarement des sorties mais j'investi dans du matériel qui me le rend bien au quotidien et surtout à très long terme. Citer Lien vers le commentaire
uman Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Woah! Je ne suis donc pas le seul à avoir ce raisonnement! Je te suis parfaitement Mjonir. Mais dans mon cas, je concentre mes ressources sur "l'utile": je prefere m'acheter un processeur pour gagner un peu plus de puissance plutot qu'une cg pour booster au max mes perfs en jeux. Car la cg ne sert qu'au jeux (je me contente de ma gtx 260), un proco plus puissant me serait utile dans les differents rendu video et audio. Aussi, il m'arrive de craquer, j'ai achete il y a un mois un ssd de 64go... Mais bon, on est jamais a l'abris d'une folie... Tout ca pour dire que ca represente un investissement considerable, mais que le benefice est bien la. Citer Lien vers le commentaire
Vincent14 Posté(e) 28 mars 2010 Auteur Signaler Share Posté(e) 28 mars 2010 Un peu comme moi avec une certaine Guitare... Citer Lien vers le commentaire
Mjonir Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Car la cg ne sert qu'au jeux (je me contente de ma gtx 260), un proco plus puissant me serait utile dans les differents rendu video et audio. Ah non, tu te trompes lourdement là dessus, et surtout pour l'exemple que tu signales! De nos jours les GPUs des carte graphiques font bien plus que la génération d'images 3D, il s'agit véritablement d'unités de calcul surpuissantes pour le calcul vectoriel et matriciel. Il est possible de programmer des applications directement sur le GPU grâce à CUDA, c'est très utile pour des tas d'applications comme le calcul scientifique que je pratique. ... et aussi justement sur le traitement vidéo & audio. Déjà maintenant avec les carte graphiques depuis un moment le décodage/encodage des vidéo ne se fait plus sur le CPU, mais bien sur le GPU, largement plus puissant pour ce genre de tâches. Il n'appartient qu'à toi d'aller plus loin encore en prenant des logiciels ou patchant tes logiciels existants pour les rendre compatibles CUDA. Les gains en terme de vitesse de calcul sont monstrueux EDIT: Pour info, dans les types de gains de vitesse tellement monstrueux que c'en est ridicule le record est "GPU-based Acceleration of the Genetic Algorithm", 2600 fois plus rapide sur le GPU Personnellement le genre de calcul que je fais est plutôt "seulement" de l'ordre d'une à plusieurs centaines de fois plus rapide Citer Lien vers le commentaire
Spay001 Posté(e) 28 mars 2010 Signaler Share Posté(e) 28 mars 2010 Je n'ai rien compris. Citer Lien vers le commentaire
Tim.Monroe Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Il explique juste qu'une carte graphique n'est pas que faite pour les jeux. Tu peux t'en servir pour l'encodage vidéo et audio, c'est pas nouveau. Mais ce qui est moins conventionnelle c'est de l'utiliser comme une puissance de calcul fonctionnelle pour épargner un peu le processeur. Citer Lien vers le commentaire
Spay001 Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Oui voilà, c'est ce truc là que j'arrive pas à m'imaginer; le reste j'avais saisi, je savais d'ailleurs, mais ça: "l'utiliser comme une puissance de calcul fonctionnelle pour épargner un peu le processeur." c'est fun. Citer Lien vers le commentaire
Mjonir Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 C'est même beaucoup plus qu'épargner le processeur, c'est avant tout augmenter la vitesse à laquelle les calculs sont réalisés. L'architecture des GPUs est très différente de celle des CPUs et est bien plus performante lorsqu'il s'agit de calcul mathématique complexe comme du calcul vectoriel ou matriciel. L'idée est donc non seulement d'avoir de la puissance de calcul supplémentaire en ajoutant les GPUs aux CPUs, mais également de faire tourner ces calculs bien plus vite! (Souvent des dizaines, voire des centaines de fois plus vite! Comme je l'ai dit ça peut aller jusqu'à des milliers!) Citer Lien vers le commentaire
Spay001 Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 En parlant de ça... Cette nouvelle fonctionnalité de Photoshop CS5 est vraiment impressionnante je trouve: http://www.papygeek.com/outils/content- ... #more-8117 Citer Lien vers le commentaire
BlueHunter Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 C'est franchement une amélioration du jeu non négligeable, ça surpasse de loin l'effet donné par des filtres anti-aliasing, un filtrage anistropique et des textures haute résolution combinés. Des jeux merdiques graphiquement en 2D deviennent tout à coup excellents en 3D. Mouais c'est rigolo mais le problème reste que la plupart des jeux sont conçus pour consoles principalement et donc pas forcément conçus sérieusement pour exploiter la 3D. A voir comment les tv3d pourront faire pencher les dev là dessus. De plus, 500€ est le prix d'une carte graphique de jeu l'investissement est donc bien justifié sachant qu'en plus ce matériel peut facilement être utilisé à d'autres fins. L'écran en lui-même permet de faire du dual screen, ou alors l'investissement est très très amorti si il s'agit d'un achat de premier écran. Un écran 120Hz est également extrêmement appréciable hors 3D, à ce niveau beaucoup de critères de qualité d'image (comme ceux qui jugent du ghosting) n'ont même plus de sens comparé à des écrans "normaux". Tout est beaucoup plus fluide, ce qui réduit également la fatigue occulaire. Les lunettes elles sont un investissement qui se regagnera dans le futur, pour être passé chez EVS (entreprise qui a en gros le monopole des technologies de retransmission et progressivement aussi de studio), les graphes projettés montrent que le passage 2D/3D suit exactement le même schéma que le passage SD/HD. Mec t'as pas à essayer de justifier tes gadgets, et surtout pas auprès de moi, mais admets juste que c'est aujourd'hui loin d'être indispensable et que dans quelques mois (années?) la technologie sera à la fois beaucoup plus au point et beaucoup moins chère, c'est juste que ça te fait tripper de l'avoir avant tout le monde. et d'où le : "Ouais fin ça reste de la branlette pour gens qui savent pas trop quoi faire de leur pognon" qui est plus un constat qu'une vraie critique. Personnellement je ne pars pas en vacance, je mange peu et sobre, je ne fais rarement des sorties mais j'investi dans du matériel qui me le rend bien au quotidien et surtout à très long terme. Heu, ouais, c'est pas juste triste ça ? Citer Lien vers le commentaire
Tim.Monroe Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Lerooooooooooooooooooooooooooooooooyyyyyy ! Citer Lien vers le commentaire
Jakal117 Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Lerooooooooooooooooooooooooooooooooyyyyyy ! JENKIIIIIIIIIIIIIIIIIIIIIIIIIIIIIINSSSSSSSSSSSSSSSSSSSS111111 Citer Lien vers le commentaire
uman Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Ah non, tu te trompes lourdement là dessus, et surtout pour l'exemple que tu signales! De nos jours les GPUs des carte graphiques font bien plus que la génération d'images 3D, il s'agit véritablement d'unités de calcul surpuissantes pour le calcul vectoriel et matriciel. Il est possible de programmer des applications directement sur le GPU grâce à CUDA, c'est très utile pour des tas d'applications comme le calcul scientifique que je pratique. ... et aussi justement sur le traitement vidéo & audio. Déjà maintenant avec les carte graphiques depuis un moment le décodage/encodage des vidéo ne se fait plus sur le CPU, mais bien sur le GPU, largement plus puissant pour ce genre de tâches. Il n'appartient qu'à toi d'aller plus loin encore en prenant des logiciels ou patchant tes logiciels existants pour les rendre compatibles CUDA. Les gains en terme de vitesse de calcul sont monstrueux EDIT: Pour info, dans les types de gains de vitesse tellement monstrueux que c'en est ridicule le record est "GPU-based Acceleration of the Genetic Algorithm", 2600 fois plus rapide sur le GPU Personnellement le genre de calcul que je fais est plutôt "seulement" de l'ordre d'une à plusieurs centaines de fois plus rapide Je connais cuda ^^, le truc, c'est qu'il n'existe aucun moteur de rendu digne de ce nom compatible avec cinema 4D, ou de truc utilisant pleinement la suite adobe (pour calculer des milliers de particules, c'est mon CPU qui trinque). Mes besoins sont de créer, pas de convertir, sinon, je sais que badaboom existe . PS: si tu me trouves un moteur de rendu pour C4D, ça peut m'intéresser! Citer Lien vers le commentaire
Mjonir Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Mouais c'est rigolo mais le problème reste que la plupart des jeux sont conçus pour consoles principalement et donc pas forcément conçus sérieusement pour exploiter la 3D. A voir comment les tv3d pourront faire pencher les dev là dessus. Pour le moment c'est plutôt les jeux les moins prévus pour la 3D qui ont les meilleurs rendus justement... Mec t'as pas à essayer de justifier tes gadgets, et surtout pas auprès de moi, mais admets juste que c'est aujourd'hui loin d'être indispensable et que dans quelques mois (années?) la technologie sera à la fois beaucoup plus au point et beaucoup moins chère, c'est juste que ça te fait tripper de l'avoir avant tout le monde. et d'où le : "Ouais fin ça reste de la branlette pour gens qui savent pas trop quoi faire de leur pognon" qui est plus un constat qu'une vraie critique. Je réagis juste à ce que tu considères comme un "constat" qui est plutôt un n'importe quoi. Bien sûr que c'est loin d'être indispensable... ça s'appelle le loisir. Tu sous-entends que pour toi on pourrait tourner avec des graphismes de N64 que ça changerait rien, le reste c'est pas indispensable et c'est de la branlette? La technologie sera TOUJOURS plus au point et TOUJOURS moins chère... pareil, avec une logique comme ça, t'as acheté ta N64 et t'es content toi ^^' Ca n'a rien à voir avec le fait de frimer genre "j'l'ai avant tout le monde". C'est un achat tout à fait rentable et durable à tous les points, ce que je viens d'expliquer... c'est précisément en ce moment que l'achat sera le plus durable. Heu, ouais, c'est pas juste triste ça ? Est-ce que je devrais trouver triste que certains préfèrent passer 2 semaines à dépenser leur fric dans une ville à l'autre bout du monde plutôt que de faire un investissement concret et durable? Ca s'appelle les priorités ^^' Je connais cuda ^^, le truc, c'est qu'il n'existe aucun moteur de rendu digne de ce nom compatible avec cinema 4D, ou de truc utilisant pleinement la suite adobe (pour calculer des milliers de particules, c'est mon CPU qui trinque). Mes besoins sont de créer, pas de convertir, sinon, je sais que badaboom existe . PS: si tu me trouves un moteur de rendu pour C4D, ça peut m'intéresser! T'as jeté un coup d'oeil dans la CUDA showcase sur le site de nvidia? Citer Lien vers le commentaire
uman Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Ouai, j'y comprend rien d'ailleurs a leur site, mais je pense pas avoir vu de truc allant avec C4D. Citer Lien vers le commentaire
Mjonir Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Ouai, j'y comprend rien d'ailleurs a leur site, mais je pense pas avoir vu de truc allant avec C4D. Qu'est-ce que tu ne comprends pas? Citer Lien vers le commentaire
uman Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Il n'y a aucun lien pour pouvoir telecharger, on sait pas si c'est un projet ou un truc que l'on peut avoir, etc. Citer Lien vers le commentaire
Mjonir Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Il n'y a aucun lien pour pouvoir telecharger, on sait pas si c'est un projet ou un truc que l'on peut avoir, etc. Eh bien à chaque fois quand tu cliques tu as les différents types de support disponibles. C'est vrai qu'il faut garder à l'esprit qu'il s'agit d'une technologie assez neuve, le développement est encore à des stades de prototypes et de codes libres, c'est plutôt dirigé aux développeurs et aux scientifiques, pas encore au grand public. Il faut dire qu'il s'agit d'un travail significatif, ce n'est pas comme si les GPUs étaient magiquement ajoutés à la puissance de calcul, le code doit être fortement modifié, débogué et optimisé pour s'adapter à la tâche. Si les gains n'étaient pas aussi épatants il me semble que ce serait même difficilement considéré. Par exemple j'ai un modèle climatique en cours de programmation (enfin, il vient juste d'être terminé), j'avais fortement envisagé une implémentation CUDA mais ma deadline est début Avril... résultat c'est largement pas le temps que pour développer un bonus pareil, même contre le goût du travail bien fait Citer Lien vers le commentaire
uman Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Serais-ce l'anniv de sirkan? Citer Lien vers le commentaire
Spay001 Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Est-ce que je devrais trouver triste que certains préfèrent passer 2 semaines à dépenser leur fric dans une ville à l'autre bout du monde plutôt que de faire un investissement concret et durable? Ca s'appelle les priorités ^^' Il y a "sortir" et "sortir". Citer Lien vers le commentaire
Jakal117 Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Bonne anniversaire au boss! Citer Lien vers le commentaire
Mjonir Posté(e) 29 mars 2010 Signaler Share Posté(e) 29 mars 2010 Il y a "sortir" et "sortir". Qu'est-ce que tu veux dire par là? Citer Lien vers le commentaire
Messages recommandés
Rejoindre la discussion
Vous pouvez poster dès maintenant et vous enregistrer plus tard. Si vous avez un compte, vous pouvez vous connecter ici pour poster avec votre profil