Erwan, mon cher Erwan;
Les reseaux d'IPTV (gerees indépendamment des protocoles internets traditionnels) seront les premiers a proposer l'integralite des contenus sur le cloud... les chaines sont par definition streamees, ca sera bientot le cas de l'ensemble de leurs interfaces... il n'y aura plus rien en local.
Non-seulement l'avenir appartient au cloud-gaming, mais il apparient au cloud tout court. La premiere grande raison, c'est la balance entre le prix des ressources decentralisees et de la bande passante. Ils s'inversent, et c'est inexorable! Qu'OnLive (et sa strategie a 2 balles) se plante ou pas, cela ne changera pas cette donne economique implacable... Nous allons revenir au modele dechu du mainframe, le bon vieux temps. Des ecrans connectes partout (Des petits affichages, en passant par les telephones, tablettes, TVs et plus). Tous les acteurs de cette industrie se preparent a cela... et je suis bien place pour en parler comme tu le sais, puisque ma boite est l'un d'entre eux.
La 2eme grande raison d'y croire, c'est la montee en puissance des systemes d'exploitations constructeurs, d'Apple principalement et de Google... qui font planer le spectre d'une prise de controle totale des contenus (softs, musique, VOD, live TV, tout!). Le cloud est technologiquement universel, et permet de s'affranchir de la platforme technologique, de l'OS... d'iOS et d'Android/Google TV. Plus besoin de s'adapter au CPU local des Smart TVs ou Set Top Boxes, ARM, Intel, Windows, Android, iOS ou Linux... Les gros editeurs et producteurs ne peuvent pas se permettre de laisser toute leur economie tomber aux mains des constructeurs, et vont traiter en direct avec les operateurs locaux. Le cloud, c'est la seule reponse a l'hégémonie destructrice d'Apple et consort, la boucle sera bouclee, le chemin est DEJA trace.
Mais bon, c'est pas encore pour 2015 en effet Je dirais plutot 2020. Mais le timing dans l'univers du consumer electronic, c'est toujours chaotique...
]]>Et un "5G volatile" hyper balèze, c'est pas envisageable?
Le sans fil ne change absolument rien.
Que se soit 3 ou 4G (ou toutes évolutions futures), ça sert juste a lier ton terminal à une antenne.
Après, tu arrives sur le réseau en tant que tel, composé de rooteur et de cable, ayant une capacité finie connue.
Les technologies de transmission de l'information sans fil ne sont pas applicable pour gérer le cœur du réseaux, la déperdition est trop grande.
Actuellement, à part augmenter le nombres de câbles et leur capacité, on a pas vraiment de pistes de recherche. Ah moins de relancer le projet West Ford : http://fr.wikipedia.org/wiki/Projet_West_Ford
Après, on peut avoir confiance en l'évolution de la technologie, mais bon, la recherche patine carrément sur ce point pour l'instant, et c'est pas par manque de financement.
]]>Je ne réfléchi pas comme ça, et la science non plus. Quand il y a des problèmes techniques (Loi de Moore ou pas), on invente, on contourne, et l'impossible devient possible.
C'est beau non ? ^^
Oui c'est très beau. Sauf que même dans 10 ans, je trouve ça infaisable. Dans ma logique, ça arrivera dans 30 ans.
]]>Red a écrit :Ok pour les contraintes techniques, et surtout sur les critiques du tout centralisé mais, avec nos braves modems 56k, on aurait eut bien du mal à s'imaginer Steam ou le XBLA 10 ans plus tard non ? Et pourtant.
Ce n'est pas vraiment comparable.
Ce qu'il faut considérer, ce n'est pas la capacité de ta ligne et de ta box, mais l'encombrement global d'internet.
Le trafic sur internet augmente de façon exponentielle (en suivant la loi de Moore), par contre, même en tenant compte des infrastructures nouvelles générations, la capacité globale d'internet est incapable de suivre une telle augmentation (surtout vrai pour les câbles trans-atlantique par exemple).
...
Bref, un jour ca sera peut-être bien la vrai merde
Je propose que chaque pays ne puisse atteindre que des sites hébergés nationalement.
Vive l'internet local !!!
(et adieux les sites porno, on ne peut pas tout avoir)
Ok pour les contraintes techniques, et surtout sur les critiques du tout centralisé mais, avec nos braves modems 56k, on aurait eut bien du mal à s'imaginer Steam ou le XBLA 10 ans plus tard non ? Et pourtant.
Ce n'est pas vraiment comparable.
Ce qu'il faut considérer, ce n'est pas la capacité de ta ligne et de ta box, mais l'encombrement global d'internet.
Le trafic sur internet augmente de façon exponentielle (en suivant la loi de Moore), par contre, même en tenant compte des infrastructures nouvelles générations, la capacité globale d'internet est incapable de suivre une telle augmentation (surtout vrai pour les câbles trans-atlantique par exemple).
C'est du à beaucoup de chose, notamment la VOD haute def, la multiplication des terminaux portables, l'augmentation du nombre d'internautes et du débit des connections.
Si on pousse l'usage d'internet dans des domaines gourmands ou en plus l'utilité n'est pas flagrante, on encombrera le réseau encore plus vite.
Et le problème c'est que si le niveau d'encombrement devient trop élevé, ça fait boule de neige : Les rooteurs sont encombrés, du coup ils ne peuvent pas traiter tous les paquets à diriger dans le réseau, et ils en détruisent.
Du coup, plus de perte sur le réseau. Du coup, plus de réémission de paquet par nos ordi. Du coup, on augmente encore plus l'encombrement global... etc
Bref, un jour ca sera peut-être bien la vrai merde
]]>Que ce soit 10 ou 3 ans, comme les responsables de cloud-system le parient plutôt, c'est le futur.
Et un futur proche et concret.Après, autant je trouve l'idée critiquable, autant j'ai du mal à comprendre qu'on puisse trouver ça "inutile" (rhô, Erwan). Et 350 millions de dollars me semblent quand même un beau petit paquet pour que des "analystes" de chez Sony s'intéressent juste à un marché de niche. Ouiii, c'est vrai, il y a eut le "succès" Zinga aussi ^^.
Comme d'hab : qui vivra verra.
Je sens que je vais p'tet radoter, mais :
- Internet est un réseau acentré dont l'intelligence se situe aux extrémités. Ce n'est pas un dogme, c'est la raison pour laquelle ça fonctionne. Le cloud de stockage est déjà une idée limite, notamment en terme de contrôle des données, mais fonctionnelle. Mais le cloud de puissance de calcul, c'est juste n'importe-quoi. Dans l'article de GK, ils expliquent que Onlive avait "sur-dimensionné" ses capacités avec 8000 serveurs, mais c'est parce qu'ils n'avaient des pics que de 1600 joueurs simultanés (sûr qu'avec 5 serveurs par joueur, ça peut tourner). Mais si ça devient mass-market, comment on fait, techniquement ? Avec 4,3 millions de joueurs simultanés (stats actuelles de Steam, et ce n'est évidemment qu'une fraction infime des joueurs), c'est pas gagné. Outre le problème d'encombrement débile de la bande passante mondiale qui a déjà du mal avec la vidéo aujourd'hui, la puissance de calcul centralisée nécessaire est juste ridiculement ingérable (sans compter la mise à jour matérielle obligatoire tous les deux ou trois ans).
- Centralisé = encore plus de contrôle éditorial qu'aujourd'hui = beurk
- Et pour Gakaï, je reste persuadé que Sony a réalisé l'investissement pour "rassurer" ses investisseurs qui commençaient à douter de sa capacité à s'imposer dans le futur. En gros, ils ont cramé 350 millions pour éviter de passer pour des ringards. Et vu que tous les "analystes" adoooooorent les concepts tendances comme le "social gaming" et le "cloud gaming", ça a marché.
]]>Après, autant je trouve l'idée critiquable, autant j'ai du mal à comprendre qu'on puisse trouver ça "inutile" (rhô, Erwan). Et 350 millions de dollars me semblent quand même un beau petit paquet pour que des "analystes" de chez Sony s'intéressent juste à un marché de niche. Ouiii, c'est vrai, il y a eut le "succès" Zinga aussi ^^.
Comme d'hab : qui vivra verra.