snipecmoi a écrit:michan a écrit:snipecmoi a écrit:on en est encore pas là les gars... d'ici à ce qu'il y ai des serveurs avec assez de puissance pour traiter plusieurs dizaines de photos de 32Mpix simultanément et d'ici que tout le monde ait un débit suffisant pour pouvoir faire ça 25 ans se seront écoulés et d'ici là les photos ne feront plus 32Mpix mais le triple et le problème sera exactement le même qu'actuellement.
Tout ça pour dire que je n'y crois pas du tout au clouding pour tout. Il y a certains domaines (comme le traitement de l'image, du son ou de la vidéo) où de la puissance en local sera toujours nécessaire
et puis je vois même pas ce que ces supputations viennent faire dans le topic des rumeurs nikon... C'est pas le topic des nostradamus informatiques ici...
Désolé de te contredire, le réseau est là pour de plus en plus de monde et la puissance informatique aussi. Par exemple Amazone met déjà a disposition des entreprises ses fermes de serveurs d'une puissance que tu aurais du mal à imaginer. Google dispose selon l'estimation de certain de plus de 2 million de serveurs (pas des petits PC) répartis à travers le monde dans aux moins 40 centres. Une société comme Akamai loue ces milliers de serveurs à qui les lui demande; ses références les plus connues sont le JO, la coupe du monde de football ou il faut mettre en ligne une puissance énorme sur une période de temps très courte. Et cela marche déjà.
1) combien de logements en France ont actuellement un débit qui permettrait de traiter une image sur un serveur distant (donc fibre) : 460 000...
les prévisions les plus optimistes tablent sur 70% des logements fibrés en 2020, on y sera probablement pas... Et comme d'ici là la taille des fichiers aura bien sûr beaucoup augmentée et bien on se retrouvera à un ration débit/taille de fichier strictement équivalent à ce qu'on a actuellement avec nos fichier 18Mpix et nos connection 20 Mega... Moralité on aura pas avancé
De plus on est bien d'accord qu'il n'y a pas de miracle, pour traiter une image, que ce soit en local ou à distance il y a besoin de la même puissance. sauf qu'on aura probablement jamais cette puissance dispo en distant (voir 2) )
2) serveur ne veut pas dire ultra puissant, ce que le réseau mondial demande le plus en ce moment ce n'est pas de la puissance de calcul mais de l'espace de stockage... Les gigantesques data centers (ça veut bien dire ce que ça veut dire data center...) ne sont pas des supercalculateurs mais de gigantesques bases de données... C'est pas pour rien que des projets comme SETI ou Folding at home ont vu le jour, tout simplement car les serveurs ne sont pas des supercalculateurs...
alors certes il y a quelques gros évènements qui sont capables de louer à des prix astronomiques des parcs de serveurs dédiés au calcul et non au stockage pour mutualiser leur performances, mais avant que ce genre de prestation n'arrive au particulier... En plus imagine, là c'est un seul évènement qui mobilise tout un parc de serveur pour sa puissance. Si cela se démocratise et arrive aux particuliers ce seront alors des millions de gens qui auront besoin de puissance et le parc ne sera pas suffisant, ce qui m'amène au 3)
3) Quand on sait que le simple fait de faire 2 recherches sur google (c'est pourtant rien du tout) dégage autant de CO2 que de faire bouillir une boulloire je te laisse imaginer l'empreinte écologique si on se met à traiter des photos de 32Mpix, ça demande autrement plus de puissance...
bref, tout ça pour redire que je ne nie pas que le clouding soit une réalité, mais pas pour tout ! il faut arrêter !
3) le bilan carbone : les promoteurs du cloud prétendent qu'il est grandement en leur faveur. Concentrer les ressources informatiques en optimisant leur utilisation plutôt qu'en les dispersant un peu partout ou elles sont globalement très sous exploitées mais très productrice de CO2 "inutiles" entraine un bilan positif pour le cloud, moins de CO2 produit finalement. Mais si tu crées de nouveaux besoins tu augmentes par la même ton besoin en énergie; mais c'est un autre problème.
2) Ces sociétés ont effectivement commencées par louer de l'espace de stockage; mais ça c'est le passé et le présent et l'avenir aussi. Les rumeurs, l'avenir donc qui commence hier, c'est de louer aussi du software (SaaS : Software as a Service). Google le fait même gratuitement pour les particuliers avec Google Document qui donne accès à environ 70% de ce que fait un logiciel comme Microsoft Office par exemple. Pour les entreprises c'est payant mais très peu par rapport à l'existant et quelques grandes entreprises sont en train de migrer d'office vers Googles apps car elles y trouvent grandement leur compte financièrement et technologiquement parlant.
1) Pas besoin de la fibre pour le cloud; la France est quasiment le seul pays au monde à ce lancer dans le 100% fibre. les débits futurs de la paire de fil télécom avec le VDSL seront à 100mbits; le futur réseau mobile avec le LTE sera aussi à 100Mbits à terme; le Wifi avec le 802.11n y est déjà et le coût du satellitaire baisse. Alors pas pour tous le monde peut être pas; que 5 à 10% de la population française en soit exclu soit. Mais je ne crois pas que cela gène beaucoup l'industrie informatique mondiale ni que des softs spécifiques seront maintenus pour eux.
Pour les producteurs de logiciel, le SaaS sur le cloud est la réponse de la mort qui tue par rapport au piratage. Si un jour Toshop est sur le cloud, Adobe ne perdra plus un centime en logiciel piraté. Quelle société pourrait résister à cet argument ?
Le cloud ne sera peut être pas étendu à tout certes, mais comme pour le monde de la photo c'est déjà en route aussi bien pour le stockage que pour les softs, je ne vois pas pourquoi il resterait très longtemps sur le bord de la route.