Canalblog
Suivre ce blog Administration + Créer mon blog

Anggi Luna Diary

24 février 2024

Anggi Luna Diary 24-02-2024

Internet partie 10
Usage
Internet permet une plus grande flexibilité dans les horaires et le lieu de travail, notamment avec la généralisation des connexions à haut débit illimitées. Internet est accessible presque partout par de nombreux moyens, notamment via les appareils Internet mobiles. Les téléphones mobiles, les cartes de données, les consoles de jeux portables et les routeurs cellulaires permettent aux utilisateurs de se connecter à Internet sans fil. Dans les limites imposées par les petits écrans et autres fonctionnalités limitées de ces appareils de poche, les services Internet, y compris le courrier électronique et le Web, peuvent être disponibles. Les fournisseurs de services peuvent restreindre les services proposés et les frais de données mobiles peuvent être nettement plus élevés que ceux des autres méthodes d'accès.

 

Du matériel pédagogique à tous les niveaux, du préscolaire au postdoctoral, est disponible sur des sites Web. Les exemples vont des CBeebies, en passant par les guides de révision pour les écoles et lycées et les universités virtuelles, jusqu'à l'accès à la littérature scientifique haut de gamme via Google Scholar. Qu'il s'agisse de l'enseignement à distance, de l'aide aux devoirs ou autres devoirs, de l'apprentissage autoguidé, du temps libre ou simplement de la recherche plus détaillée d'un fait intéressant, il n'a jamais été aussi simple pour les gens d'accéder à des informations éducatives à n'importe quel niveau et depuis n'importe où. Internet en général et le World Wide Web en particulier sont d’importants catalyseurs de l’éducation formelle et informelle. De plus, Internet permet aux chercheurs (notamment ceux des sciences sociales et comportementales) de mener des recherches à distance via des laboratoires virtuels, avec de profonds changements dans la portée et la généralisabilité des résultats ainsi que dans la communication entre scientifiques et dans la publication des résultats.

 

Le faible coût et le partage quasi instantané des idées, des connaissances et des compétences ont rendu le travail collaboratif considérablement plus facile, grâce aux logiciels collaboratifs. Non seulement un groupe peut communiquer et partager des idées à moindre coût, mais la vaste portée d'Internet permet à de tels groupes de se former plus facilement. Un exemple en est le mouvement du logiciel libre, qui a produit, entre autres, Linux, Mozilla Firefox et OpenOffice.org (plus tard intégré à LibreOffice). Le chat sur Internet, qu'il s'agisse d'un salon de discussion IRC, d'un système de messagerie instantanée ou d'un service de réseau social, permet aux collègues de rester en contact de manière très pratique tout en travaillant sur leur ordinateur pendant la journée. Les messages peuvent être échangés encore plus rapidement et plus facilement que par courrier électronique. Ces systèmes peuvent permettre l'échange de fichiers, le partage de dessins et d'images ou encore le contact vocal et vidéo entre les membres d'une équipe.

 

Les systèmes de gestion de contenu permettent aux équipes collaboratrices de travailler simultanément sur des ensembles de documents partagés sans détruire accidentellement le travail de chacun. Les équipes commerciales et de projet peuvent partager des calendriers ainsi que des documents et autres informations. Une telle collaboration se produit dans une grande variété de domaines, notamment la recherche scientifique, le développement de logiciels, la planification de conférences, l'activisme politique et la création littéraire. La collaboration sociale et politique se généralise également à mesure que l’accès à Internet et la culture informatique se répandent.

 

Internet permet aux utilisateurs d'ordinateurs d'accéder facilement à distance à d'autres ordinateurs et banques d'informations à partir de n'importe quel point d'accès. L'accès peut se faire avec la sécurité informatique, c'est-à-dire des technologies d'authentification et de cryptage, en fonction des exigences. Cela encourage de nouvelles méthodes de travail à distance, de collaboration et de partage d’informations dans de nombreux secteurs. Un comptable assis chez lui peut vérifier les livres d'une entreprise basée dans un autre pays, sur un serveur situé dans un pays tiers et entretenu à distance par des informaticiens dans un quatrième pays. Ces comptes auraient pu être créés par des comptables travaillant à domicile, dans d'autres endroits éloignés, sur la base d'informations qui leur ont été envoyées par courrier électronique depuis des bureaux du monde entier. Certaines de ces choses étaient possibles avant l’utilisation généralisée d’Internet, mais le coût des lignes louées privées aurait rendu bon nombre d’entre elles irréalisables dans la pratique. Un employé de bureau éloigné de son bureau, peut-être à l'autre bout du monde en voyage d'affaires ou en vacances, peut accéder à ses e-mails, accéder à ses données via le cloud computing ou ouvrir une session de bureau à distance sur son ordinateur de bureau à l'aide d'un espace virtuel sécurisé. connexion à un réseau privé (VPN) sur Internet. Cela peut donner au travailleur un accès complet à tous ses fichiers et données normaux, y compris ses e-mails et autres applications, lorsqu'il n'est pas au bureau. Les administrateurs système l'appellent le cauchemar privé virtuel, car il étend le périmètre sécurisé d'un réseau d'entreprise jusqu'aux sites distants et au domicile de ses employés.

 

À la fin des années 2010, Internet a été décrit comme « la principale source d’informations scientifiques » pour la majorité de la population du Nord mondial.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30  Link 31  Link 32  Link 33

Publicité
Publicité
20 février 2024

Anggi Luna Diary 20-02-2024 Part 2

Internet partie 9
Utilisateurs
Entre 2000 et 2009, le nombre d’internautes dans le monde est passé de 390 millions à 1,9 milliard. En 2010, 22 % de la population mondiale avait accès à des ordinateurs, avec 1 milliard de recherches Google chaque jour, 300 millions d'internautes lisant des blogs et 2 milliards de vidéos visionnées quotidiennement sur YouTube. En 2014, le nombre d'utilisateurs d'Internet dans le monde a dépassé les 3 milliards, soit 44 pour cent de la population mondiale, mais les deux tiers provenaient des pays les plus riches, avec 78 pour cent des Européens utilisant Internet, suivis par 57 pour cent des Amériques. Cependant, en 2018, l’Asie représentait à elle seule 51 % de tous les utilisateurs d’Internet, soit 2,2 milliards sur les 4,3 milliards d’internautes dans le monde. Les utilisateurs d'Internet en Chine ont franchi une étape importante en 2018, lorsque l'autorité de régulation de l'Internet du pays, le China Internet Network Information Centre, a annoncé que la Chine comptait 802 millions d'utilisateurs. La Chine était suivie par l'Inde, avec quelque 700 millions d'utilisateurs, suivie par les États-Unis avec 275 millions d'utilisateurs. Cependant, en termes de pénétration, en 2022, la Chine avait un taux de pénétration de 70 %, contre 60 % pour l'Inde et 90 % pour les États-Unis. En 2022, 54 % des internautes dans le monde étaient basés en Asie, 14 % en Europe, 7 % en Amérique du Nord, 10 % en Amérique latine et dans les Caraïbes, 11 % en Afrique, 4 % au Moyen-Orient et 1 % au Moyen-Orient. Océanie. En 2019, le Koweït, le Qatar, les îles Falkland, les Bermudes et l'Islande avaient la pénétration Internet la plus élevée en termes de nombre d'utilisateurs, avec 93 % ou plus de la population y ayant accès. En 2022, on estimait que 5,4 milliards de personnes utilisaient Internet, soit plus des deux tiers de la population mondiale.

 

La langue prédominante pour la communication via Internet a toujours été l’anglais. Cela peut être dû à l'origine d'Internet, ainsi qu'au rôle de la langue en tant que lingua franca et langue mondiale. Les premiers systèmes informatiques étaient limités aux caractères de l'American Standard Code for Information Interchange (ASCII), un sous-ensemble de l'alphabet latin. Après l'anglais (27%), les langues les plus demandées sur le World Wide Web sont le chinois (25%), l'espagnol (8%), le japonais (5%), le portugais et l'allemand (4% chacun), l'arabe, le français et le russe ( 3% chacun) et coréen (2%). Les technologies d'Internet se sont suffisamment développées ces dernières années, en particulier dans l'utilisation d'Unicode, pour que de bonnes installations soient disponibles pour le développement et la communication dans les langues largement utilisées dans le monde. Cependant, certains problèmes tels que le mojibake (affichage incorrect des caractères de certaines langues) subsistent.

 

Dans une étude américaine de 2005, le pourcentage d'hommes utilisant Internet était très légèrement supérieur à celui des femmes, même si cette différence s'inversait chez les moins de 30 ans. Les hommes se connectaient plus souvent, passaient plus de temps en ligne et étaient plus susceptibles d'être connectés. les utilisateurs du haut débit, tandis que les femmes ont tendance à utiliser davantage les opportunités de communication (telles que le courrier électronique). Les hommes étaient plus susceptibles d'utiliser Internet pour payer leurs factures, participer à des enchères et à des fins récréatives, comme télécharger de la musique et des vidéos. Les hommes et les femmes étaient tout aussi susceptibles d’utiliser Internet pour faire des achats et effectuer des opérations bancaires. En 2008, les femmes étaient nettement plus nombreuses que les hommes sur la plupart des services de réseaux sociaux, tels que Facebook et Myspace, même si les ratios variaient selon l'âge. Les femmes regardaient davantage de contenu en streaming, tandis que les hommes en téléchargeaient davantage. Les hommes étaient plus susceptibles de bloguer. Parmi ceux qui bloguent, les hommes étaient plus susceptibles d’avoir un blog professionnel, tandis que les femmes étaient plus susceptibles d’avoir un blog personnel.

 

Il existe plusieurs néologismes qui font référence aux utilisateurs d'Internet : Netizen (comme dans « citoyen du net ») fait référence à ceux qui sont activement impliqués dans l'amélioration des communautés en ligne, d'Internet en général ou des affaires et droits politiques entourant tels que la liberté d'expression, Internaut fait référence aux opérateurs ou Utilisateurs d'Internet techniquement hautement compétents, le citoyen numérique fait référence à une personne utilisant Internet afin de s'engager dans la société, la politique et la participation gouvernementale.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18

20 février 2024

Anggi Luna Diary 20-02-2024

Internet partie 8
Transfert de données
Le partage de fichiers est un exemple de transfert de grandes quantités de données sur Internet. Un fichier informatique peut être envoyé par courrier électronique aux clients, collègues et amis en pièce jointe. Il peut être téléchargé sur un site Web ou un serveur FTP (File Transfer Protocol) pour un téléchargement facile par d'autres. Il peut être placé dans un « emplacement partagé » ou sur un serveur de fichiers pour une utilisation instantanée par des collègues. La charge de téléchargements en masse pour de nombreux utilisateurs peut être allégée par l'utilisation de serveurs « miroirs » ou de réseaux peer-to-peer. Dans tous ces cas, l'accès au fichier peut être contrôlé par l'authentification de l'utilisateur, le transit du fichier sur Internet peut être obscurci par le cryptage et l'argent peut changer de mains pour accéder au fichier. Le prix peut être payé par le prélèvement à distance de fonds provenant, par exemple, d'une carte de crédit dont les détails sont également transmis – généralement entièrement cryptés – sur Internet. L'origine et l'authenticité du fichier reçu peuvent être vérifiées par des signatures numériques ou par MD5 ou d'autres résumés de message. Ces fonctionnalités simples d’Internet, à l’échelle mondiale, modifient la production, la vente et la distribution de tout ce qui peut être réduit à un fichier informatique destiné à être transmis. Cela inclut toutes sortes de publications imprimées, de produits logiciels, d'actualités, de musique, de films, de vidéos, de photographies, de graphiques et d'autres arts. Cela a à son tour provoqué des changements sismiques dans chacune des industries existantes qui contrôlaient auparavant la production et la distribution de ces produits.

 

Le streaming multimédia est la diffusion en temps réel de médias numériques pour une consommation ou un plaisir immédiat par les utilisateurs finaux. De nombreux diffuseurs de radio et de télévision diffusent sur Internet leurs productions audio et vidéo en direct. Ils peuvent également permettre une visualisation ou une écoute en différé, telles que les fonctionnalités d'aperçu, de clips classiques et de réécoute. Ces fournisseurs ont été rejoints par une série de « diffuseurs » purement Internet qui n'ont jamais eu de licence d'antenne. Cela signifie qu'un appareil connecté à Internet, tel qu'un ordinateur ou quelque chose de plus spécifique, peut être utilisé pour accéder aux médias en ligne de la même manière qu'il était auparavant possible uniquement avec un téléviseur ou un récepteur radio. La gamme de types de contenus disponibles est beaucoup plus large, allant des webémissions techniques spécialisées aux services multimédias populaires à la demande. Le podcasting est une variante de ce thème, où le matériel, généralement audio, est téléchargé et lu sur un ordinateur ou transféré vers un lecteur multimédia portable pour être écouté en déplacement. Ces techniques utilisant un équipement simple permettent à quiconque, avec peu de censure ou de contrôle des licences, de diffuser du matériel audiovisuel dans le monde entier.

 

Le streaming multimédia numérique augmente la demande de bande passante réseau. Par exemple, la qualité d'image standard nécessite une vitesse de liaison de 1 Mbit/s pour SD 480p, la qualité HD 720p nécessite 2,5 Mbit/s et la qualité HDX haut de gamme nécessite 4,5 Mbit/s pour 1080p.

 

Les webcams sont une extension peu coûteuse de ce phénomène. Bien que certaines webcams puissent fournir une vidéo à pleine fréquence, l'image est généralement petite ou se met à jour lentement. Les internautes peuvent observer les animaux autour d'un point d'eau africain, les navires dans le canal de Panama, le trafic sur un rond-point local ou surveiller leurs propres locaux, en direct et en temps réel. Les salons de discussion vidéo et les vidéoconférences sont également populaires et les webcams personnelles sont largement utilisées, avec ou sans son bidirectionnel. YouTube a été fondé le 15 février 2005 et est aujourd'hui le premier site de streaming vidéo gratuit avec plus de deux milliards d'utilisateurs. Il utilise par défaut un lecteur Web basé sur HTML5 pour diffuser et afficher des fichiers vidéo. Les utilisateurs enregistrés peuvent télécharger une quantité illimitée de vidéos et créer leur propre profil personnel. YouTube affirme que ses utilisateurs regardent des centaines de millions et mettent en ligne des centaines de milliers de vidéos quotidiennement.

 

Impact social
Internet a permis de nouvelles formes d'interaction sociale, d'activités et d'associations sociales. Ce phénomène a donné lieu à des études scientifiques sur la sociologie de l'Internet.

 

Les débuts d'Internet ont laissé un impact sur certains écrivains qui ont utilisé le symbolisme pour écrire à ce sujet, par exemple en décrivant Internet comme un « moyen de connecter les individus dans un vaste réseau invisible sur toute la terre ».

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30

18 février 2024

Anggi Luna Diary 18-02-2024

Internet partie 7
World Wide Web
Le World Wide Web est une collection mondiale de documents, d'images, de multimédia, d'applications et d'autres ressources, logiquement interconnectés par des hyperliens et référencés par des identificateurs de ressources uniformes (URI), qui fournissent un système mondial de références nommées. Les URI identifient symboliquement les services, les serveurs Web, les bases de données ainsi que les documents et ressources qu'ils peuvent fournir. Hypertext Transfer Protocol (HTTP) est le principal protocole d'accès au World Wide Web. Les services Web utilisent également HTTP pour la communication entre les systèmes logiciels pour le transfert d'informations, le partage et l'échange de données commerciales et de logistique et constituent l'un des nombreux langages ou protocoles pouvant être utilisés pour la communication sur Internet.

 

Les logiciels de navigation du World Wide Web, tels qu'Internet Explorer/Edge de Microsoft, Mozilla Firefox, Opera, Safari d'Apple et Google Chrome, permettent aux utilisateurs de naviguer d'une page Web à une autre via les hyperliens intégrés dans les documents. Ces documents peuvent également contenir toute combinaison de données informatiques, notamment des graphiques, des sons, du texte, des vidéos, du multimédia et du contenu interactif qui s'exécutent pendant que l'utilisateur interagit avec la page. Les logiciels côté client peuvent inclure des animations, des jeux, des applications bureautiques et des démonstrations scientifiques. Grâce à la recherche Internet basée sur des mots clés et utilisant des moteurs de recherche tels que Yahoo!, Bing et Google, les utilisateurs du monde entier ont un accès facile et instantané à une quantité vaste et diversifiée d'informations en ligne. Comparé aux médias imprimés, aux livres, aux encyclopédies et aux bibliothèques traditionnelles, le World Wide Web a permis une décentralisation de l'information à grande échelle.

 

Le Web a permis aux individus et aux organisations de publier en ligne des idées et des informations auprès d'un public potentiellement large, à des coûts et dans des délais considérablement réduits. La publication d'une page Web, d'un blog ou la création d'un site Web implique peu de frais initiaux et de nombreux services gratuits sont disponibles. Cependant, la publication et la maintenance de grands sites Web professionnels proposant des informations attrayantes, diversifiées et à jour restent une proposition difficile et coûteuse. De nombreux individus et certaines entreprises et groupes utilisent des journaux Web ou des blogs, qui sont largement utilisés comme journaux en ligne facilement mis à jour. Certaines organisations commerciales encouragent le personnel à communiquer des conseils dans leurs domaines de spécialisation dans l'espoir que les visiteurs seront impressionnés par les connaissances spécialisées et les informations gratuites et seront ainsi attirés par l'entreprise.

 

La publicité sur des pages Web populaires peut être lucrative, et le commerce électronique, qui consiste en la vente de produits et de services directement via le Web, continue de croître. La publicité en ligne est une forme de marketing et de publicité qui utilise Internet pour transmettre des messages marketing promotionnels aux consommateurs. Il comprend le marketing par courrier électronique, le marketing sur les moteurs de recherche (SEM), le marketing sur les réseaux sociaux, de nombreux types de publicité display (y compris les bannières publicitaires Web) et la publicité mobile. En 2011, les revenus publicitaires sur Internet aux États-Unis ont dépassé ceux de la télévision par câble et ont presque dépassé ceux de la télévision diffusée. De nombreuses pratiques courantes en matière de publicité en ligne sont controversées et de plus en plus soumises à réglementation.

 

Lorsque le Web s'est développé dans les années 1990, une page Web typique était stockée sous forme complétée sur un serveur Web, formatée en HTML, prête à être transmise à un navigateur Web en réponse à une requête. Au fil du temps, le processus de création et de diffusion de pages Web est devenu dynamique, créant une conception, une mise en page et un contenu flexibles. Les sites Web sont souvent créés à l’aide d’un logiciel de gestion de contenu avec, au départ, très peu de contenu. Les contributeurs à ces systèmes, qui peuvent être du personnel rémunéré, des membres d'une organisation ou du public, remplissent les bases de données sous-jacentes avec du contenu en utilisant des pages d'édition conçues à cet effet tandis que les visiteurs occasionnels visualisent et lisent ce contenu sous forme HTML. Il peut y avoir ou non des systèmes de rédaction, d'approbation et de sécurité intégrés au processus de prise en compte du contenu nouvellement saisi et de sa mise à disposition des visiteurs cibles.

 

Communication
Le courrier électronique est un service de communication important disponible via Internet. Le concept d'envoi de messages texte électroniques entre parties, analogue à l'envoi de lettres ou de mémos, est antérieur à la création d'Internet. Les images, documents et autres fichiers sont envoyés sous forme de pièces jointes à des e-mails. Les messages électroniques peuvent être envoyés en copie à plusieurs adresses électroniques.

 

La téléphonie Internet est un service de communication commun réalisé avec Internet. Le nom du principal protocole de mise en réseau, Internet Protocol, donne son nom à la voix sur protocole Internet (VoIP). L'idée est née au début des années 1990 avec des applications vocales de type talkie-walkie pour ordinateurs personnels. Les systèmes VoIP dominent désormais de nombreux marchés et sont aussi faciles à utiliser et pratiques qu'un téléphone traditionnel. L'avantage a été des économies substantielles par rapport aux appels téléphoniques traditionnels, en particulier sur de longues distances. Les réseaux de données câblés, ADSL et mobiles fournissent un accès Internet dans les locaux du client et des adaptateurs réseau VoIP peu coûteux assurent la connexion aux postes téléphoniques analogiques traditionnels. La qualité vocale de la VoIP dépasse souvent celle des appels traditionnels. Les problèmes restants pour la VoIP incluent la situation dans laquelle les services d'urgence peuvent ne pas être universellement disponibles et que les appareils dépendent d'une alimentation électrique locale, alors que les téléphones traditionnels plus anciens sont alimentés par la boucle locale et fonctionnent généralement en cas de panne de courant.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30  Link 31  Link 32  Link 33

16 février 2024

Anggi Luna Diary 16-02-2024

Sous-réseau

Création d'un sous-réseau en divisant l'identifiant de l'hôte
Un sous-réseau ou sous-réseau est une subdivision logique d'un réseau IP. La pratique consistant à diviser un réseau en deux ou plusieurs réseaux est appelée sous-réseau.

 

Les ordinateurs appartenant à un sous-réseau sont adressés avec un groupe de bits de poids fort identique dans leurs adresses IP. Cela aboutit à la division logique d'une adresse IP en deux champs, le numéro de réseau ou préfixe de routage et le champ restant ou identifiant d'hôte. Le champ de repos est un identifiant pour un hôte ou une interface réseau spécifique.

 

Le préfixe de routage peut être exprimé en notation CIDR (Classless Inter-Domain Routing) écrite comme la première adresse d'un réseau, suivie d'une barre oblique (/) et se terminant par la longueur en bits du préfixe. Par exemple, 198.51.100.0/24 est le préfixe du réseau Internet Protocol version 4 commençant à l'adresse donnée, avec 24 bits alloués au préfixe réseau et les 8 bits restants réservés à l'adressage de l'hôte. Les adresses comprises entre 198.51.100.0 et 198.51.100.255 appartiennent à ce réseau. La spécification d'adresse IPv6 2001:db8::/32 est un grand bloc d'adresses avec 296 adresses, ayant un préfixe de routage de 32 bits.

 

Pour IPv4, un réseau peut également être caractérisé par son masque de sous-réseau ou masque de réseau, qui est le masque de bits qui, lorsqu'il est appliqué par une opération ET au niveau du bit à n'importe quelle adresse IP du réseau, donne le préfixe de routage. Les masques de sous-réseau sont également exprimés en notation décimale, comme une adresse. Par exemple, 255.255.255.0 est le masque de sous-réseau pour le préfixe 198.51.100.0/24.

 

Le trafic est échangé entre les sous-réseaux via des routeurs lorsque les préfixes de routage de l'adresse source et de l'adresse de destination diffèrent. Un routeur sert de limite logique ou physique entre les sous-réseaux.

 

Les avantages de la création de sous-réseaux sur un réseau existant varient selon chaque scénario de déploiement. Dans l'architecture d'allocation d'adresses d'Internet utilisant le CIDR et dans les grandes organisations, il est nécessaire d'allouer efficacement l'espace d'adressage. Le sous-réseau peut également améliorer l'efficacité du routage ou présenter des avantages dans la gestion du réseau lorsque les sous-réseaux sont contrôlés administrativement par différentes entités au sein d'une organisation plus grande. Les sous-réseaux peuvent être organisés logiquement dans une architecture hiérarchique, partitionnant l'espace d'adressage réseau d'une organisation dans une structure de routage arborescente.

 

Routage
Les ordinateurs et les routeurs utilisent des tables de routage dans leur système d'exploitation pour diriger les paquets IP vers un nœud sur un sous-réseau différent. Les tables de routage sont gérées par configuration manuelle ou automatiquement par des protocoles de routage. Les nœuds finaux utilisent généralement une route par défaut qui pointe vers un FAI assurant le transit, tandis que les routeurs des FAI utilisent le Border Gateway Protocol pour établir le routage le plus efficace à travers les connexions complexes de l'Internet mondial. La passerelle par défaut est le nœud qui sert d'hôte de transfert (routeur) vers d'autres réseaux lorsqu'aucune autre spécification de route ne correspond à l'adresse IP de destination d'un paquet.

 

IETF
Même si les composants matériels de l'infrastructure Internet peuvent souvent être utilisés pour prendre en charge d'autres systèmes logiciels, c'est la conception et le processus de normalisation du logiciel qui caractérisent Internet et constituent la base de son évolutivité et de son succès. La responsabilité de la conception architecturale des systèmes logiciels Internet a été assumée par l'Internet Engineering Task Force (IETF). L'IETF anime des groupes de travail de normalisation, ouverts à tous, sur les différents aspects de l'architecture Internet. Les contributions et normes qui en résultent sont publiées sous forme de documents de demande de commentaires (RFC) sur le site Web de l'IETF. Les principales méthodes de mise en réseau permettant l'accès à Internet sont contenues dans des RFC spécialement désignées qui constituent les normes Internet. D'autres documents moins rigoureux sont simplement informatifs, expérimentaux ou historiques, ou documentent les meilleures pratiques actuelles (BCP) lors de la mise en œuvre des technologies Internet.

 

Applications et services
Internet propose de nombreuses applications et services, notamment le World Wide Web, notamment les médias sociaux, le courrier électronique, les applications mobiles, les jeux multijoueurs en ligne, la téléphonie sur Internet, le partage de fichiers et les services de streaming multimédia.

 

La plupart des serveurs qui fournissent ces services sont aujourd'hui hébergés dans des centres de données, et le contenu est souvent accessible via des réseaux de diffusion de contenu hautes performances.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30  Link 31  Link 32  Link 33

Publicité
Publicité
15 février 2024

Anggi Luna Diary 15-02-2024

Internet partie 5
Suite de protocole Internet
Les normes Internet décrivent un cadre connu sous le nom de suite de protocoles Internet (également appelée TCP/IP, basée sur les deux premiers composants.) Il s'agit d'une suite de protocoles classés en un ensemble de quatre couches conceptuelles en fonction de la portée de leur fonctionnement, documenté à l'origine dans les RFC 1122 et RFC 1123. Au sommet se trouve la couche application, où la communication est décrite en termes d'objets ou de structures de données les plus appropriées pour chaque application. Par exemple, un navigateur Web fonctionne dans un modèle d'application client-serveur et échange des informations avec le protocole HTTP (Hypertext Transfer Protocol) et une structure de données propre à l'application, telle que le langage HTML (HyperText Markup Language).

 

Sous cette couche supérieure, la couche de transport connecte les applications sur différents hôtes avec un canal logique via le réseau. Il fournit à ce service une variété de caractéristiques possibles, telles qu'une livraison ordonnée et fiable (TCP) et un service de datagramme non fiable (UDP).

 

À la base de ces couches se trouvent les technologies de réseau qui interconnectent les réseaux à leurs frontières et échangent du trafic à travers eux. La couche Internet implémente le protocole Internet (IP) qui permet aux ordinateurs de s'identifier et de se localiser par adresse IP et d'acheminer leur trafic via des réseaux intermédiaires (de transit). Le code de couche du protocole Internet est indépendant du type de réseau sur lequel il s'exécute physiquement.

 

Au bas de l'architecture se trouve la couche liaison, qui connecte les nœuds sur le même lien physique et contient des protocoles qui ne nécessitent pas de routeurs pour la traversée vers d'autres liens. La suite de protocoles ne spécifie pas explicitement les méthodes matérielles pour transférer les bits, ni les protocoles pour gérer ce matériel, mais suppose qu'une technologie appropriée est disponible. Des exemples de cette technologie incluent le Wi-Fi, Ethernet et DSL.

 

Protocole Internet
L'élément le plus important du modèle Internet est le protocole Internet (IP). L'IP permet l'interconnexion des réseaux et, par essence, établit l'Internet lui-même. Il existe deux versions du protocole Internet, IPv4 et IPv6.

 

Adresses IP

Un résolveur DNS consulte trois serveurs de noms pour résoudre le nom de domaine visible par l'utilisateur « www.wikipedia.org » afin de déterminer l'adresse IPv4 207.142.131.234.
Pour localiser des ordinateurs individuels sur le réseau, Internet fournit des adresses IP. Les adresses IP sont utilisées par l'infrastructure Internet pour diriger les paquets Internet vers leurs destinations. Ils sont constitués de nombres de longueur fixe, qui se trouvent dans le paquet. Les adresses IP sont généralement attribuées aux équipements soit automatiquement via DHCP, soit configurées.

 

Cependant, le réseau prend également en charge d'autres systèmes d'adressage. Les utilisateurs saisissent généralement des noms de domaine (par exemple « en.wikipedia.org ») au lieu d'adresses IP, car ils sont plus faciles à mémoriser ; elles sont converties par le système de noms de domaine (DNS) en adresses IP plus efficaces à des fins de routage.

 

IPv4
Internet Protocol version 4 (IPv4) définit une adresse IP comme un nombre de 32 bits. IPv4 est la version initiale utilisée sur la première génération d'Internet et est toujours utilisée de manière dominante. Il a été conçu pour traiter jusqu’à ≈4,3 milliards (109) d’hôtes. Cependant, la croissance explosive d’Internet a conduit à l’épuisement des adresses IPv4, qui est entré dans sa phase finale en 2011, lorsque le pool mondial d’allocation d’adresses IPv4 a été épuisé.

 

IPv6
En raison de la croissance d'Internet et de l'épuisement des adresses IPv4 disponibles, une nouvelle version d'IP IPv6 a été développée au milieu des années 1990, offrant des capacités d'adressage bien plus importantes et un routage plus efficace du trafic Internet. IPv6 utilise 128 bits pour l'adresse IP et a été normalisé en 1998. Le déploiement d'IPv6 est en cours depuis le milieu des années 2000 et est actuellement de plus en plus déployé dans le monde, depuis que les registres d'adresses Internet (RIR) ont commencé à inciter tous les gestionnaires de ressources à planifier rapidement leurs adresses IP. adoption et conversion.

 

IPv6 n'est pas directement interopérable, de par sa conception, avec IPv4. Essentiellement, il établit une version parallèle d’Internet non directement accessible avec le logiciel IPv4. Ainsi, des installations de traduction doivent exister pour l'interconnexion des réseaux ou les nœuds doivent disposer d'un logiciel de mise en réseau en double pour les deux réseaux. Pratiquement tous les systèmes d'exploitation informatiques modernes prennent en charge les deux versions du protocole Internet. L'infrastructure de réseau est toutefois à la traîne dans ce développement. Outre la gamme complexe de connexions physiques qui constituent son infrastructure, Internet est facilité par des contrats commerciaux bilatéraux ou multilatéraux, par exemple des accords de peering, et par des spécifications techniques ou des protocoles qui décrivent l'échange de données sur le réseau. En effet, Internet se définit par ses interconnexions et ses politiques de routage.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30

14 février 2024

Anggi Luna Diary 14-02-2024

Accéder
Les méthodes courantes d'accès à Internet par les utilisateurs comprennent l'accès commuté avec un modem informatique via des circuits téléphoniques, le haut débit sur câble coaxial, la fibre optique ou les fils de cuivre, le Wi-Fi, le satellite et la technologie de téléphonie cellulaire (par exemple 3G, 4G). Internet est souvent accessible à partir des ordinateurs des bibliothèques et des cybercafés. Des points d'accès Internet existent dans de nombreux lieux publics tels que les halls d'aéroport et les cafés. Divers termes sont utilisés, tels que kiosque Internet public, terminal d'accès public et téléphone payant Web. De nombreux hôtels disposent également de terminaux publics généralement payants. Ces terminaux sont largement utilisés pour diverses utilisations, telles que la réservation de billets, le dépôt bancaire ou le paiement en ligne. Le Wi-Fi offre un accès sans fil à Internet via les réseaux informatiques locaux. Les hotspots offrant un tel accès incluent les cafés Wi-Fi, où les utilisateurs doivent apporter leurs propres appareils sans fil, tels qu'un ordinateur portable ou un PDA. Ces services peuvent être gratuits pour tous, gratuits pour les clients uniquement ou payants.

 

Les efforts locaux ont conduit à la création de réseaux communautaires sans fil. Des services Wi-Fi commerciaux couvrant de vastes zones sont disponibles dans de nombreuses villes, telles que New York, Londres, Vienne, Toronto, San Francisco, Philadelphie, Chicago et Pittsburgh, où l'Internet est ensuite accessible à partir d'endroits tels qu'un banc de parc. Des expériences ont également été menées avec des réseaux sans fil mobiles propriétaires tels que Ricochet, divers services de données à haut débit sur réseaux cellulaires et des services sans fil fixes. Les smartphones modernes peuvent également accéder à Internet via le réseau de l'opérateur cellulaire. Pour la navigation Web, ces appareils fournissent des applications telles que Google Chrome, Safari et Firefox et une grande variété d'autres logiciels Internet peuvent être installés à partir des magasins d'applications. L'utilisation d'Internet par les appareils mobiles et les tablettes a dépassé celle des ordinateurs de bureau dans le monde pour la première fois en octobre 2016.

 

Communication mobile
L'Union internationale des télécommunications (UIT) estime qu'à la fin de 2017, 48 % des utilisateurs individuels se connectaient régulièrement à Internet, contre 34 % en 2012. La connectivité Internet mobile a joué un rôle important dans l'expansion de l'accès ces dernières années, en particulier en Asie et dans le Pacifique et en Afrique. Le nombre d'abonnements uniques à la téléphonie mobile est passé de 3,9 milliards en 2012 à 4,8 milliards en 2016, soit les deux tiers de la population mondiale, avec plus de la moitié des abonnements situés en Asie et dans le Pacifique. Le nombre d'abonnements devrait atteindre 5,7 milliards d'utilisateurs en 2020. En 2018, 80 % de la population mondiale était couverte par un réseau 4G. Les limites auxquelles sont confrontés les utilisateurs lorsqu’ils accèdent à l’information via des applications mobiles coïncident avec un processus plus large de fragmentation d’Internet. La fragmentation restreint l’accès au contenu médiatique et tend à toucher le plus les utilisateurs les plus pauvres.

 

Le taux zéro, la pratique des fournisseurs de services Internet permettant aux utilisateurs d'accéder gratuitement à des contenus ou à des applications spécifiques, a offert des opportunités de surmonter les obstacles économiques, mais a également été accusé par ses détracteurs de créer un Internet à deux vitesses. Pour résoudre les problèmes liés au taux zéro, un modèle alternatif a émergé dans le concept de « taux égal » et est testé dans le cadre d'expériences menées par Mozilla et Orange en Afrique. L’égalité de notation empêche la priorisation d’un type de contenu et met à zéro tout le contenu jusqu’à un plafond de données spécifié. Dans une étude publiée par Chatham House, 15 des 19 pays étudiés en Amérique latine proposaient une sorte de produit hybride ou détaxé. Certains pays de la région disposaient d'une poignée de forfaits parmi lesquels choisir (parmi tous les opérateurs de réseaux mobiles), tandis que d'autres, comme la Colombie, proposaient jusqu'à 30 forfaits prépayés et 34 forfaits post-payés.

 

Une étude menée dans huit pays du Sud a révélé que des forfaits de données détaxés existent dans chaque pays, même s'il existe une grande diversité dans la fréquence à laquelle ils sont proposés et réellement utilisés dans chacun d'entre eux. L'étude a porté sur les trois à cinq principaux transporteurs par part de marché au Bangladesh, en Colombie, au Ghana, en Inde, au Kenya, au Nigeria, au Pérou et aux Philippines. Sur les 181 régimes examinés, 13 pour cent offraient des services détaxés. Une autre étude, portant sur le Ghana, le Kenya, le Nigeria et l'Afrique du Sud, a révélé que les contenus Free Basics et Wikipedia Zero de Facebook étaient les contenus détaxés les plus courants.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24

13 février 2024

Anggi Luna Diary 13-02-2024

Internet partie 3
Gouvernance
Internet est un réseau mondial qui comprend de nombreux réseaux autonomes volontairement interconnectés. Il fonctionne sans organe directeur central. Le fondement technique et la normalisation des protocoles de base (IPv4 et IPv6) sont une activité de l'Internet Engineering Task Force (IETF), une organisation à but non lucratif composée de participants internationaux vaguement affiliés à laquelle chacun peut s'associer en apportant son expertise technique. Pour maintenir l'interopérabilité, les principaux espaces de noms d'Internet sont administrés par l'Internet Corporation for Assigned Names and Numbers (ICANN). L'ICANN est régie par un conseil d'administration international composé de représentants des communautés techniques, commerciales, universitaires et autres communautés Internet non commerciales. L'ICANN coordonne l'attribution d'identifiants uniques à utiliser sur Internet, notamment les noms de domaine, les adresses IP, les numéros de port d'application dans les protocoles de transport et de nombreux autres paramètres. Les espaces de noms unifiés à l’échelle mondiale sont essentiels pour maintenir la portée mondiale d’Internet. Ce rôle de l'ICANN en fait peut-être le seul organisme central de coordination de l'Internet mondial.

 

Des registres Internet régionaux (RIR) ont été créés pour cinq régions du monde. Le Centre d'information sur les réseaux africains (AfriNIC) pour l'Afrique, le Registre américain des numéros Internet (ARIN) pour l'Amérique du Nord, le Centre d'information sur les réseaux Asie-Pacifique (APNIC) pour la région Asie et Pacifique, le Registre des adresses Internet d'Amérique latine et des Caraïbes ( LACNIC) pour la région Amérique latine et Caraïbes, et les Réseaux IP Européens – Network Coordination Center (RIPE NCC) pour l'Europe, le Moyen-Orient et l'Asie centrale ont été délégués pour attribuer des blocs d'adresses IP et d'autres paramètres Internet aux registres locaux, tels que Fournisseurs de services Internet, à partir d'un pool d'adresses désignées réservées à chaque région.

 

La National Telecommunications and Information Administration, une agence du Département du Commerce des États-Unis, a obtenu l'approbation finale des modifications apportées à la zone racine du DNS jusqu'à la transition de la supervision de l'IANA le 1er octobre 2016. L'Internet Society (ISOC) a été fondée en 1992 avec pour mission « assurer le développement, l'évolution et l'utilisation ouverts de l'Internet pour le bénéfice de tous les peuples du monde ». Ses membres comprennent des individus (n'importe qui peut adhérer) ainsi que des entreprises, des organisations, des gouvernements et des universités. Entre autres activités, l'ISOC fournit un siège administratif à un certain nombre de groupes moins formellement organisés qui sont impliqués dans le développement et la gestion d'Internet, notamment : l'IETF, l'Internet Architecture Board (IAB), l'Internet Engineering Steering Group (IESG), l'Internet Research Task Force. (IRTF) et Groupe directeur de recherche sur Internet (IRSG). Le 16 novembre 2005, le Sommet mondial sur la société de l'information, parrainé par les Nations Unies à Tunis, a créé le Forum sur la gouvernance de l'Internet (FGI) pour discuter des questions liées à l'Internet.

 

Infrastructure
L'infrastructure de communication d'Internet se compose de composants matériels et d'un système de couches logicielles qui contrôlent divers aspects de l'architecture. Comme tout réseau informatique, Internet est physiquement constitué de routeurs, de supports (tels que des câbles et des liaisons radio), de répéteurs, de modems, etc. Cependant, à titre d'exemple d'interconnexion, de nombreux nœuds du réseau ne sont pas nécessairement des équipements Internet en soi, les paquets Internet sont transportés par d'autres protocoles réseau à part entière, Internet agissant comme une norme de réseau homogène, fonctionnant sur du matériel hétérogène, les paquets étant guidés vers leurs destinations par des routeurs IP.

 

Niveaux de service
Les fournisseurs de services Internet (FAI) établissent la connectivité mondiale entre les réseaux individuels à différents niveaux de portée. Les utilisateurs finaux qui accèdent à Internet uniquement lorsque cela est nécessaire pour exécuter une fonction ou obtenir des informations représentent le bas de la hiérarchie de routage. Au sommet de la hiérarchie de routage se trouvent les réseaux de niveau 1, de grandes entreprises de télécommunications qui échangent du trafic directement entre elles via des câbles à fibre optique à très haut débit et régies par des accords de peering. Les réseaux de niveau 2 et de niveau inférieur achètent le transit Internet auprès d'autres fournisseurs pour atteindre au moins certaines parties sur l'Internet mondial, bien qu'ils puissent également recourir au peering. Un FAI peut utiliser un seul fournisseur en amont pour la connectivité ou mettre en œuvre le multihébergement pour obtenir la redondance et l'équilibrage de charge. Les points d'échange Internet sont des échanges de trafic majeurs avec des connexions physiques à plusieurs FAI. Les grandes organisations, telles que les établissements universitaires, les grandes entreprises et les gouvernements, peuvent remplir la même fonction que les FAI, en s'engageant dans le peering et en achetant du transit au nom de leurs réseaux internes. Les réseaux de recherche ont tendance à s'interconnecter avec de grands sous-réseaux tels que GEANT, GLORIAD, Internet2 et le réseau national de recherche et d'éducation du Royaume-Uni, JANET.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30

8 février 2024

Anggi Luna Diary 08-02-2024

Histoire de l'animation partie 19
Stop motion
Après les travaux pionniers de J. Stuart Blackton, Segundo de Chomón et Arthur Melbourne-Cooper, le stop motion est devenu une branche de l'animation beaucoup moins dominante que l'animation dessinée à la main et l'animation par ordinateur. Néanmoins, il existe de nombreux films et séries télévisées en stop-motion à succès. Parmi les animateurs dont le travail avec des marionnettes animées a reçu les plus grands éloges figurent Wladyslaw Starewicz, George Pal et Henry Selick. Les titres populaires utilisant de l'argile animée incluent Gumby (1953), Mio Mao (1970), Le Rouge et le Bleu (1976), Pingu (1990-2000) et de nombreuses productions d'Aardman Animations (Morph (1977) et Wallace et Gromit (1989)) .

 

Entre les mains de cinéastes influents tels que Jan Svankmajer et Brothers Quay, le stop motion est considéré comme un médium hautement artistique.

 

Jusqu'à ce qu'il soit largement remplacé par des effets animés par ordinateur, le stop motion était également une technique populaire pour les effets spéciaux dans les films d'action réelle. Le pionnier Willis O'Brien et son protégé Ray Harryhausen ont animé de nombreux monstres et créatures pour des films hollywoodiens en direct, en utilisant des modèles ou des marionnettes avec armatures. En comparaison, l'animation dessinée à la main a relativement souvent été combinée avec de l'action réelle, mais généralement de manière évidente et souvent utilisée comme un gadget surprenant combinant un monde « réel » et un monde fantastique ou onirique. Ce n'est que très rarement que des animations dessinées à la main ont été utilisées comme effets spéciaux convaincants (par exemple dans le point culminant de Highlander (1986)).

 

Animation de découpe
Les techniques de découpage étaient relativement souvent utilisées dans les films d'animation jusqu'à ce que l'animation sur celluloïd devienne la méthode standard (du moins aux États-Unis). Les premiers longs métrages d'animation, de Quirino Cristiani et Lotte Reiniger, étaient des animations découpées.

 

Avant 1934, l’animation japonaise utilisait principalement des techniques de découpage plutôt que d’animation sur celluloïd, car le celluloïd était trop cher.

 

Comme les découpes ont souvent été dessinées à la main et que certaines productions combinent plusieurs techniques d'animation, l'animation de découpe peut parfois ressembler beaucoup à l'animation traditionnelle dessinée à la main.

 

Bien que parfois utilisée comme méthode d'animation simple et bon marché dans les programmes pour enfants (par exemple dans Ivor the Engine), l'animation découpée est restée un médium relativement artistique et expérimental entre les mains de cinéastes comme Harry Everett Smith, Terry Gilliam et Jim Blashfield.

 

Aujourd'hui, les animations découpées sont fréquemment produites à l'aide d'ordinateurs, les images numérisées ou les graphiques vectoriels remplaçant les matériaux physiquement découpés. South Park est un exemple notable de transition puisque son épisode pilote a été réalisé avec des découpes de papier avant de passer aux logiciels informatiques. Des choix stylistiques similaires et des mélanges avec différentes techniques d'animation par ordinateur ont rendu plus difficile la distinction entre les styles d'animation « traditionnels », de découpe et d'animation Flash.

 

Autres développements par région
Amériques
Voir aussi : Histoire de l'animation brésilienne, Histoire de l'animation canadienne, L'animation aux États-Unis à l'ère du muet, Âge d'or de l'animation américaine, Seconde Guerre mondiale et animation américaine, L'animation aux États-Unis à l'ère de la télévision et Animation moderne en les États Unis

 

Histoire de l'animation cubaine
1970 : Juan Padrón crée le personnage d'Elpidio Valdés, vedette d'une longue série de courts métrages et de deux films.
1992 : Une catégorie animation est ajoutée au Festival Internacional del Nuevo Cine Latinoamericano.

 

Histoire de l'animation mexicaine
1935 : Alfonso Vergara produit Paco Perico en premier, un court métrage d'animation.
1974 : Fernando Ruiz produit Los tres Reyes Magos, le premier long métrage d'animation mexicain.
1977 : Anuar Badin crée le film Los supersabios, basé sur la bande dessinée.
1983 : Roy de l'espace

 

L'Europe 
Voir aussi : Histoire de l'animation britannique, Animation tchèque, Animation estonienne, Histoire de l'animation française, Histoire de l'animation hongroise, Histoire de l'animation russe, Animation espagnole et Histoire de l'animation ukrainienne

 

Histoire de l'animation italienne
1977 : Le classique Allegro Non Troppo, parodie/hommage à Fantasia de Disney, est l'œuvre la plus ambitieuse du réalisateur Bruno Bozzetto et son troisième long métrage d'animation, après le Western Spaghetti et Soda et la parodie de super-héros VIP mon frère Superman, et après plusieurs notables. courts métrages (dont M. Rossi et les Grasshoppers (Cavallette) nominés aux Oscars).

 

Histoire de l'animation en Croatie (en ex-Yougoslavie)
1953 : Zagreb Film inaugure l'école d'animation de Zagreb.
1975 : Škola Animiranog Filma Čakovec (ŠAF) inaugure l'école d'animation de Čakovec.

 

Asie
Voir aussi : Histoire de l'anime, Histoire de l'animation chinoise, Histoire de l'animation en Inde, Histoire de l'animation coréenne, Histoire de l'animation iranienne et Animation malaisienne.

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30  Link 31  Link 32  Link 33

7 février 2024

Anggi Luna Diary 07-02-2024

Histoire de l'animation partie 18
Percée de l'animation par ordinateur et des nouveaux médias
Au cours des années 1990, l'animation 3D est devenue de plus en plus courante, en particulier dans les jeux vidéo, et a finalement connu une grande percée en 1995 avec le long métrage à succès de Pixar, Toy Story.

 

L'animation 3D plus ou moins photoréaliste a été utilisée pour des effets spéciaux dans certaines publicités et films depuis les années 1980, avant que des effets révolutionnaires ne soient observés dans Terminator 2 : Judgment Day (1991) et Jurassic Park (1993). Depuis lors, les techniques se sont développées à tel point que la différence entre CGI et la cinématographie réelle est rarement évidente. Les cinéastes peuvent mélanger de manière transparente les deux types d’images avec la cinématographie virtuelle. Matrix (1999) et ses deux suites sont généralement considérés comme des films révolutionnaires dans ce domaine.

 

La création de mondes virtuels permet une animation en temps réel dans la réalité virtuelle, un support expérimenté depuis 1962 et qui a commencé à voir des applications de divertissement commerciales dans les années 1990.

 

Le lancement du World Wide Web a accru l'intérêt pour les graphiques animés et l'animation par ordinateur, engendrant de nombreuses nouvelles applications, techniques et marchés pour ce qui est devenu connu sous le nom de nouveaux médias.

 

Années 2000-2010 : les techniques traditionnelles éclipsées par l’animation par ordinateur
Après le succès de Toy Story de Pixar (1995) et de Shrek de DreamWorks Animation (2001), l'animation par ordinateur est devenue la technique d'animation dominante aux États-Unis et dans de nombreux autres pays. Même les animations qui semblaient traditionnelles étaient de plus en plus souvent créées entièrement avec des ordinateurs, aidées par exemple par des techniques de cel-shading pour reproduire l'aspect très apprécié de l'animation traditionnelle (le véritable cel-shading en temps réel a été introduit pour la première fois en 2000 par Jet Set de Sega. Radio pour leur console Dreamcast). En 2004, seules de petites productions étaient encore créées avec des techniques traditionnelles.

 

Les premières décennies du 21e siècle ont également vu le cinéma 3D devenir courant dans les salles de cinéma. Le processus de production et le style visuel de CGI se prêtent parfaitement à la visualisation 3D, bien plus que les styles et méthodes d'animation traditionnels. Cependant, de nombreux films d’animation traditionnels peuvent être très efficaces en 3D. Disney a publié avec succès une version 3D du Roi Lion en 2011, suivie de La Belle et la Bête en 2012. Une version 3D prévue de La Petite Sirène a été annulée lorsque La Belle et la Bête et deux titres Pixar convertis en 3D n'ont pas eu suffisamment de succès au moment du lancement. box-office.

 

Disney-Pixar
Disney a commencé à produire ses propres longs métrages d'animation par ordinateur de style 3D avec Dinosaur et Chicken Little, mais a continué à créer des longs métrages d'animation au look traditionnel : The Emperor's New Groove (2000), Atlantis : The Lost Empire (2001), Lilo & Stitch (2002). ), Treasure Planet (2002), Brother Bear (2003) et Home on the Range (2004).

 

Treasure Planet et Home on the Range ont été de gros échecs avec de gros budgets et il semblait que Disney continuerait uniquement avec l'animation par ordinateur 3D. L'analyse financière de 2006 a prouvé que Disney avait perdu de l'argent sur ses productions d'animation des dix années précédentes. Entre-temps, les fonctionnalités CGI de Pixar ont extrêmement bien fonctionné. Pour changer les choses, Disney a acquis Pixar en 2006 et a confié le contrôle créatif de Pixar et de Walt Disney Animation Studios à John Lasseter de Pixar dans le cadre de l'accord. Les studios resteraient des entités juridiques distinctes. Sous Lasseter, le studio Disney a développé des projets d'animation de style traditionnel et de style 3D.

 

Le court métrage théâtral Comment brancher votre cinéma maison (2007) a testé si de nouveaux processus d'animation sans papier pouvaient être utilisés pour un look similaire aux dessins animés des années 1940 et 1950, Dingo revenant à son rôle de "Everyman" lors de sa première apparition solo en 42. années.

 

Le long métrage de Ron Clements et John Musker La Princesse et la grenouille (2009) a été un succès commercial et critique modéré, mais pas le retour en force des longs métrages traditionnels que le studio avait espéré. Son échec perçu était principalement imputé à l'utilisation du mot « princesse » dans le titre, ce qui faisait croire aux cinéphiles potentiels que c'était réservé aux petites filles et qu'il était démodé.

 

Winnie l'ourson (2011) a reçu des critiques favorables, mais a échoué au box-office et est devenu le long métrage traditionnel le plus récent de Disney à ce jour. Frozen (2013) a été conçu à l'origine dans le style traditionnel, mais est passé à la 3D CGI pour permettre la création de certains éléments visuels requis. Il est devenu le plus grand succès de Disney à l'époque, dépassant à la fois Le Roi Lion et Toy Story 3 de Pixar en tant que film d'animation le plus rentable de tous les temps, et remportant le premier Oscar du studio pour le meilleur long métrage d'animation.

 

Anime
Dans le monde entier en particulier, l'animation dessinée à la main est restée très populaire, notamment au Japon, où l'anime de style traditionnel reste la technique dominante. La popularité de l'anime a continué de croître au niveau national, avec un nombre record de 340 séries animées diffusées à la télévision en 2015, ainsi qu'à l'international, avec un bloc Toonami dédié sur Cartoon Network (1997-2008) et Adult Swim (depuis 2012) et avec des services de streaming comme les licences Netflix et Amazon Prime et la production d'une quantité croissante d'anime.

 

Ghibli a poursuivi son énorme succès avec Le Voyage de Chihiro (2001) de Miyazaki, Le Château ambulant (2004), Ponyo (2008) et Le vent se lève (2013) et Hiromasa Yonebayashi, Le monde secret d'Arrietty (2010), qui ont tous rapporté plus de 100 millions de dollars. dans le monde entier et figurant dans le top 10 des films d’animation les plus rentables de tous les temps (en 2020). Le Conte de la princesse Kaguya (2013) de Takahata a été nominé pour l'Oscar du meilleur long métrage d'animation et de nombreux autres prix.

 

Makoto Shinkai a réalisé Your Name (2016, film d'animation le plus rentable de tous les temps au niveau international) et Weathering with You (2019).

 

Link 1  Link 2  Link 3  Link 4  Link 5  Link 6  Link 7  Link 8  Link 9  Link 10  Link 11  Link 12  Link 13  Link 14  Link 15  Link 16  Link 17  Link 18  Link 19  Link 20  Link 21  Link 22  Link 23  Link 24  Link 25  Link 26  Link 27  Link 28  Link 29  Link 30  Link 31  Link 32  Link 33

Publicité
Publicité
1 2 3 4 5 6 7 8 9 > >>
Anggi Luna Diary
Publicité
Archives
Publicité