Login  
 
0 vote

Par BIAOU Ramanou le 11/07/2017 à 19:55 Voir l'article



Les années 90 ont connu un grand avènement, celui de l’usage par le grand public du réseau Internet. C’était l’ère de l’informatique, de l’accès à l’information en ligne et de la publication de contenu. Aujourd’hui, le mode de publication d’informations grand public sur l’Internet s’est perfectionné autour de trois axes : du vieil e-mail au site web en passant par l’application mobile.

L’ensemble de ces canaux met en perspective des intérêts, mais aussi des insuffisances, notamment sur la compatibilité, rétrocompatibilité aux différentes plates-formes, sur la sécurité en ligne, etc. Les solutions successives à ces problèmes ont conduit à perdre progressivement la promesse originale du web qui est la possibilité pour tous de publier de façon rapide et simple des contenus sur l'Internet qui soient visibles par tous et sur tous supports.

 
0 vote

Par BIAOU Ramanou le 10/07/2015 à 22:45 Voir l'article


Si vous suivez activement l’actualité de l’Internet ces derniers mois, vous conviendrez avec moi que le sujet brûlant au sein de la communauté mondiale de l’Internet est le transfert de la fonction IANA  (Internet Assigned Numbers Authority) par le gouvernement des Etats-Unis à la communauté multipartite mondiale de l’Internet. Cette communauté pour désormais gérer de façon neutre et transparente la racine de l’Internet devra s’organisée et proposée un modèle de reprise de la gestion de la racine de l’Internet.

Pour vous remémorer un peu le contexte de ce méli-mélo, le 14 juin 2014, le gouvernement fédéral Etats-Uniens à travers son agence nationale des télécommunications et de l’information la NTIA, avait annoncé son intention de faire main levée sur la gestion de la fonction IANA qu’elle assure sur le contrôle de la racine de l’Internet.

La NTIA compte transférer cette fonction à la communauté multipartite mondiale  de l’Internet. Cette décision qui survient sous la Présidence de Barack Obama, issue du parti démocrate Etats-Uniens est prise dans un contexte ou l’Internet et les soupçons de surveillances de masses étaient d’actualités. Ce choix de la NTIA a été très controversant et suscité une effervescence au sein de la classe politique Etats-Uniennes.

Les parlementaires républicains (du congrès Etats-Uniens) ont particulièrement perçus cette décision  de la NTIA comme un désaveu du rôle actuel des  États-Unis qu’ils considèrent comme  un artefact des débuts de l'Internet. Ils ont d’ailleurs été soutenus dans cette position par 17 démocrates Etats-Uniens qui expriment leurs inquiétudes de voir demain la racine de l’Internet aux mains des régimes autoritaires ou vers un forum, comme l'Union internationale des télécommunications, où les processus sont très dominés par les grandes puissances ou États-nations. La NTIA a toutefois fixé des règles et conditions de reprise pour la mise en œuvre de ce transfert.

Nonobstant ces remous et incertitudes, le gouvernement fédéral Etats-Uniens a invité l'ensemble des acteurs de tous les pays, issus de la société civile, d'entreprises ou de gouvernements, de se mobiliser pour proposer un modèle pour la mise en place d’une organisation neutre qui s’occupera de la gestion de la racine de l’Internet et de  ces ressources critiques. Deux des trois groupes de travail constitués pour la circonstance  ont rendus leurs propositions publiques et soumis cela à commentaires. Bien que l’échéance annoncée soit repoussée jusqu’en 2016, Il serait judicieux d’œuvrer à la concrétisation de ce transfert de la fonction IANA avant 2017.

Certains acteurs du monde de la gouvernance de l’Internet interprète toujours cette annonce du gouvernement Etats-Uniens comme une farce qui vient juste à point nommé calmer le mécontentement de la communauté internationale face aux différentes révélations sur les écoutes massives organisées par la NSA.

Aussi les nouvelles idéologies pour la création d’un nouvel Internet neutre, d’un Internet européen et l’intention de plusieurs puissances telle que la Chine, la Russie de mettre en place leur propre racine pour Internet auraient également motivées les Etats-Unis d’Amérique à adopter une approche proactive qui promeut son intention d’aller vers un Internet neutre et plus ouvert.

Bien que la conférence de l’ICANN 53 de juin dernier à Buenos Aires ait donnée plus de visibilité sur le calendrier de la transition et l’évolution des travaux des groupes de travail, il ne faut pas perdre de vue qu’il reste une étape cruciale à franchir.

La proposition de la communauté multipartite mondiale si elle est conforme aux critères fixés à l’origine de cette annonce sera transmise au Congrès qui aujourd’hui est majoritairement républicaine.

Qu’il vous souvienne que ces mêmes républicains ont contesté cette position de la NTIA en son temps. Mieux, En novembre 2014, le parti républicain s'est emparé des deux chambres du Congrès états-uniens. Rien ne garantit donc que la proposition de reprise qui sera faite ait une approbation favorable du congrès.

Au total cette phase de vérification et d'approbation devrait prendre 4 à 5 mois, soit jusqu'en février ou mars 2016 avant la mise en place opérationnelle qui  constituerait alors la troisième et dernière phase. Ceci avant l’automne 2016.

Quoi que certains démocrates soient encore contre la perte du contrôle de la racine de l’Internet par les Etats-Unis d’Amérique. Alors le Président Barack Obama pourrait–il forcer et faire passer cette transition par décret dans un contexte d’échec au congrès de l’étape d’approbation?

Le Mandat d’Obama se termine en fin 2016. Si un républicain vient au pouvoir alors les chances aussi bien au congrès qu’à la maison blanche pour aboutir à cette transition seront-elles considérablement réduites? La question reste ouverte...
 
0 vote

Par BIAOU Ramanou le 26/04/2015 à 22:16 Voir l'article









La version PDF de cet article est disponible sur ce lien

Rassurez-vous ce n’est pas parce que je suis né un 13. Il y a  plusieurs raisons qui ont poussé à la standardisation du nombre de serveurs racines (13) de l’Internet.
A travers cet article je  vous donnerai un aperçu sur cette passive problématique en mettant l’accent  sur les enjeux géo-stratégiques et politiques de la localisation et de l’administration de ces serveurs racines.
Avant l’entame du vif du sujet je voudrais vous présenter un petit aperçu sur le DNS, sur ce qu'est un serveur racine DNS (en anglais root server). Il ne faut déjà pas se faire une imagination particulière sur les serveurs racines. Ce sont des serveurs DNS (Comme nous pouvons l’installer sur nos machines ou en entreprise : Bind, NSD, Knot, Ect) et dont l’infrastructure (hardware) est bien dimensionnée (puissance de processeur, mémoire disque, etc.) et capable de répondre à la charge des requêtes DNS de l’Internet mondial.
De façon spécifique un serveur racine répond  aux requêtes  relatives aux noms de domaine de premier niveau (Top Level Domain TLD). Ils assurent donc la redirection vers les serveurs DNS de premier niveau demandé. Par exemple si  la requête envoyée vers le serveur racine concerne le domaine biaou.net, le serveur racine redirigera la requête vers le serveur DNS du .NET qui est enregistré dans sa base de données.
Le rôle des serveurs racines DNS est donc ultra important dans le fonctionnement de l’Internet aujourd’hui. C’est son point d’entrée.
Le Système de nom de domaine (DNS: Domain Name System), est construit, juste parce que nous, les humains ne sommes pas assez capables de nous souvenir des numéros (Adresses IP), ou il est plus facile pour l’humain de se rappeler plus les noms plutôt que les chiffres.
Ce système appelé DNS permet donc de réaliser cette association entre les noms et les numéros IP à notre place. On parle de résolution DNS.
Je vous recommande les lectures/Vidéos suivantes pour comprendre comment fonctionne le DNS (Vidéo Ici / Lecture).
Vu la criticité que représente l’Internet, il est important d’assurer sa robustesse, sa disponibilité et surtout sa résilience. Les concepteurs ont donc adopté une architecture hiérarchique pour le DNS et dont le sommet est la racine (.).
Image 1: Architecture Hiérarchique du DNS

Même si on parle souvent de “la racine” du DNS, Il est important de préciser qu’il existe 13 serveurs racines/instances pour Internet qui sont nommées de A à M. et gérées par 12 organismes différents.

Serveur racine Nom
Géré par
a.root-servers.net
j.root-servers.net
b.root-servers.net
c.root-servers.net
d.root-servers.net
e.root-servers.net
f.root-servers.net
g.root-servers.net
h.root-servers.net
L'armée américaine
i.root-servers.net
k.root-servers.net
l.root-servers.net
m.root-servers.net
WIDE

Pourquoi se limiter à 13 serveurs/Instances vu l’importance et la criticité de l’Internet aujourd’hui ?

Ce serait une belle blague technique de dire qu’il existe seulement 13 serveurs physiques pour la racine DNS de l’Internet. Nous avons 13 instances représentées chacune par une IP de la racine. Et derrière chaque instance plusieurs serveurs racines. Imaginez un instant que nous ayons un seul serveur racine, si cette unique racine du DNS a un problème,  l'ensemble de l'Internet sera affecté. Dans la suite de ce article je vous expliquerai pourquoi nous avons seulement 13 adresses IP pour la racine du DNS et pas plus.
Comme je l’ai dit plus haut nous avons 13 adresses IP. Si vous êtes familiers avec les réseaux informatiques ou si vous êtes un administrateur système, vous auriez certainement déjà entendu parler de ces deux protocoles: UDP (User Datagramme Protocol) et TCP (Transmission Control Protocol). Pour des raisons de performances et de rapidité,  le protocole UDP est très privilégié par rapport au protocole TCP particulièrement dans le DNS.
En effet, historiquement, le protocole UDP est généralement utilisé pour le DNS lorsque la taille des paquets DNS est inférieure à 512 octets. Dès que la taille passe à plus 512 octets c’est le protocole TCP qui est engagé. Le protocole TCP convient mieux pour la fiabilité et l’UDP est adapté à la performance.
Vu l’importance du DNS dans le fonctionnement de l’Internet, cette technologie ne devrait jamais être lente. Par conséquent le protocole UDP est celui qui convient pour assurer une bonne performance du DNS.
Un paquet DNS doit contenir toutes ces 13 adresses IP de la racine  de l’Internet et d'autres informations de protocole UDP.
§  Un paquet DNS a  une taille 512 octets (Historiquement)
§  Et 32 octets pour l’IP
Si les 13 adresses IP de la racine doivent être encapsulées dans un paquet DNS ils occuperont 416 (13 x 32) octets. Il restera donc 96 (512 - 416) octets pour les informations de l’en-tête du paquet UDP et éventuellement pour ajouter une autre adresse IP à la racine au besoin.
Il n’est pas compliqué que IANA (Internet Assigned Numbers Authority) définisse plusieurs adresses IP : 50 ou 100 pour la racine du DNS. Le problème c’est qu’on ne serait plus en mesure de les encapsuler tous dans un paquet DNS et par conséquent impossible de les envoyer dans un seul paquet DNS en UDP.
Dans un tel contexte on serait obligé de les envoyer en plusieurs paquets; ce qui réduira les performances, une exigence capitale pour le DNS car c’est le protocole TCP qui sera utilisé.
Cette contrainte a donc conduit à garder à 13 le nombre d’adresse IP pour la racine. Ce choix technologique est ainsi basé sur une contrainte deprotocole Internet (IP) version 4 (IPv4) et celui de l’UDP.
J’imagine que vous avez maintenant une grande visibilité sur le choix du nombre 13 qui n’est pas aléatoire.
Maintenant avec l'apparition de l’IPv6 qui est codé sur 128 bits que va-t-il se passer?

Maintenant avec IPv6, aurions-nous moins de 13 adresses IP pour la racine DNS ?

Une adresse IPv6 est codée sur 128 bits. Alors il serait impossible d’ajouter les adresses IPv6 de la racine dans un paquet UDP. Déjà si on conserve les 13 adresses IPv4 il ne reste plus 96 octets sur 512 octets.
Mais ne vous inquiétez pas, l'arrivée de l’IPv6 qui est codée sur un nombre important de bit  a été anticipée au niveau du DNS. En 1999 une RFC: RFC 2671 (Mis à jour dans le RFC 6891) a supprimé la contrainte liée à la limitation de la taille des paquets DNS 512 octets. Désormais les paquets DNS peuvent atteindre 4096 octets et même plus. On parle donc depuis ce temps de l’introduction de l’EDNS0 extension du protocole Domain Name System (En anglais Extension mechanisms for DNS).
La standardisation de L’EDNS0 n’est pas seulement liée à l’IPv6. Elle est importante pour la mise en œuvre du DNSSEC dont je vous parlerai très bientôt dans une autre publication. Malheureusement plus de dix ans après la publication de cette RFC certains pare-feu sont toujours mal configurés et filtrent encore les paquets DNS de plus de 512 octets. Cela est un véritable danger pour la résolution des noms.
Pire, certains fournisseurs d’accès à Internet en France filtrent toujours et n’appliquent pas l’EDNS0 dans leur infrastructure. Je me suis amusé à vérifier cela via la boxe Internet de quelques opérateurs en France. Le constat est ultra amer et très décevant. Certains opérateurs filtrent toujours des paquets de plus 512 octets sur certains de leur firewall. Seul un opérateur a un pare-feu qui limite la taille du paquet à 1433 octets (Lors de mes tests).
Vous pouvez vérifier cela par vous-même et savoir si le pare-feu de votre fournisseur d’accès à internet filtre ou non les paquets DNS supérieur à 512 octets.
Si vous êtes sur une machine Linux/Mac OS
# dig +short rs.dns-oarc.net txt
Si la taille est inférieure à 2048 octets, danger : Les réponses aux requêtes DNS signées en DNSSEC c’est-à-dire sécurisées, auront du mal à traverser ces pare-feu; ce qui pourrait engendrer des problèmes au site web sécurisé en DNSSEC.
Il est important de retenir que cette limite est une très vielle pratique qui ne devrait plus être d’actualité surtout qu’aujourd’hui  six (06) des treize (13) serveurs racines sont en IPv6 et la racine signée en DNSSEC.

Combien de serveurs racines physiques avons-nous précisément?

J’espère que vous n’imaginez pas que nous ayons seulement 13 serveurs racines physiques.
Nous avons environ 370 serveurs racines physiques qui sont géographiquement distribués sur l’ensemble de la planète. Juste que l’ensemble de ces serveurs est accessible via les 13 adresses IP des différentes instances.
La répartition géographique des serveurs DNS est très importante. Elle permettra à un utilisateur localisé en France par exemple d’atteindre plus rapidement le serveur DNS racine près de chez lui que d'atteindre un serveur racine situé aux États-Unis.
C’est vrai qu’au début ils étaient tous situés aux États-Unis. Mais des améliorations récentes ont rendu disponibles dans différents pays et continents, des images de serveurs racines, démocratisant ainsi un tout petit peu l’impérialisme étasunien sur les serveurs DNS racines.

Comment ça marchent 13 IP racines pour plus de
370 serveurs racines physiques?

Il y a plusieurs serveurs pour une instance de serveur racine. Par exemple a.root-servers.net est une instance constituée de nombreux serveurs à différents endroits de la planète.
Il y une technique en réseau appelée Anycast. En effet, l’Anycast joue un rôle majeur dans la réalisation de cette architecture pour distribuer des serveurs racines DNS.
En termes simples l’Anycast est une technologie qui permet à plusieurs serveurs situés à des endroits différents de partager une seule adresse IP.  Avec l’Anycast, lorsqu'une requête est envoyée à une adresse IP racine, celle-ci sera redirigée vers  le serveur racine le plus proche ou le "plus efficace" en tenant compte de la métrique de routage.
Cela signifie que si je veux atteindre f.root-servers.netde Nancy, les emplacements les plus proches possibles sont Paris, Francfort en Allemagne et Genève en Suisse. Ça ne sera donc pas les Etats-Unis. C’est la raison pour laquelle les IP des serveurs racines sont des IP de type Anycast.
La racine DNS s’appuie  fortement sur cette technologie qui offre de nombreux avantages notamment une haute vitesse, une faible latence, une forte résilience aux pannes et une protection contre les attaques de types DDOS.

D’accord, mais comment sont-ils distribués
géographiquement sur la terre?

Selon Wikipedia, il y a plus de 370 serveurs racines réparties dans différents continents. La carte ci-dessous montre l’emplacement des serveurs racines DNS sur la planète.
On se rend compte qu’il existe plusieurs serveurs racines sur chaque continent.
Image 2: Répartition Géographique des serveurs racines

Quel est le rôle des États-Unis aujourd’hui qui disposent un nombre important de serveurs racines sur leur territoire?

Les États-Unis dominent-ils Internet aujourd’hui?
Comme vous pouvez le déduire, la racine du DNS est à la fois le cœur et le maillon le plus important de l’Internet. Sur les 13 Instances de serveurs racines du DNS, 10 sont gérées par des organismes étasuniens  sous contrat avec leur Etat. Un serveur est géré par un organisme suédois, un autre par un organisme japonnais et puis le dernier par le registre européen basé aux Pays-bas (RIPE NCC).
Même si les États-Unis n’ont pas un contrôle absolu sur la racine du DNS il faut dire qu’ils ont aujourd’hui une position extrêmement dominante qui pourrait influencer l’Internet mondial.
D’ailleurs cette position étasunienne ne va pas durée.  L’Agence nationale des télécommunications et de l’information des États-Unis (National Telecommunications and Information Administration (NTIA) a annoncé le 14 Mars 2014 une ouverture importante qui pourrait changer  la donne par rapport à l’impérialisme étasunien sur la racine du DNS et sur l’attribution et la gestion des ressources critiques de l’Internet. Son intention est  le retrait et le transfert du rôle de la supervision de la fonction IANA (Internet Assigned Numbers Authority) à la communauté multi-partite mondiale de l’Internet
En effet, l’IANA qui depuis 1998 est une composante de l’ICANN a pour rôle la gestion de la racine du DNS, de l’attribution des adresses IP, et de la maintenance des protocoles du système Internet avec I'IETF.
Par ailleurs il est important de préciser en lisant dans les lignes de cette déclaration que le gouvernement  étasunien ne ferait pas cette concession sans aucune garantie de la continuité de la supervision de l’Internet. Aujourd’hui c‘est l’ICANN,  soumis au droit Californien, qui conduit ce processus de transition.  Vous pouvez suivre l’évolution des discussions publiques et de cette transition en consultant ce lien.

La version PDF de cet article est disponible sur ce lien
Références de rédaction

§  Ressource Wikipédia sur les serveurs Racines
 
http://fr.wikipedia.org/wiki/Serveur_racine_du_DNS


§  Serveurs Racines, Infrastructure critique de l’Internet par Sarath Pillai
http://www.slashroot.in/dns-root-servers-most-critical-infrastructure-internet

§  Explication du nombre de serveur par Miek GIEBEN
http://miek.nl/posts/2013/Nov/10/13%20DNS%20root%20servers/



§  Votre serveur DNS peut-il faire passer des paquets de toutes les tailles ? par Stéphane Bortzmeyer
http://www.bortzmeyer.org/dns-size.html
    §  Article de l’Afnic sur le rôle des Etats-Unis dans ICANN, par Pierre Bonis

     §  Wikipédia sur EDNS, IPv4, IPv6
         §  Processus de Transition de la fonction IANA par ICANN
 
0 vote

Par BIAOU Ramanou le 24/06/2014 à 20:15 Voir l'article

Les technologies de l'information ne cessent aujourd'hui d'être davantage présent au cœur de nos activités et quelques soit le domaine. Mieux le réseaux Internet reste l'interface par excellence pour les échanges de données, de transactions, de communications et interagir avec le monde extérieur sur les plans: économique, de travail, d'études, ect...
Vu l'importance qu'il occupe il est devenu la cible privilégiée de personnes mal intentionnées afin de rendre indisponible le service, dérouter le service, écouter et faire des modifications malveillantes de données.

Plusieurs communautés ce sont donc activées pour réfléchir à cette problématique. L'une des solutions pour réduire ou empêcher que les internautes soient victime d'hameçonnage sur Internet est le DNSSEC et le protocole DANE.




Qu'est-ce que le DNSSEC?

DNSSEC (« Domain Name System Security Extensions ») est un protocole standardisé par l'IETF permettant de résoudre certains problèmes de sécurité liés au protocole DNS. Les spécifications sont publiées dans la RFC 4033 et les suivantes (une version antérieure de DNSSEC n'a eu aucun succès).

DNSSEC permet de sécuriser les données envoyées par le DNS. Contrairement à d'autres protocoles comme SSL, il ne sécurise pas juste un canal de communication mais il protège les données, les enregistrements DNS, de bout en bout. Ainsi, il est efficace même lorsqu'un serveur intermédiaire trahit.
DNSSEC signe cryptographiquement les enregistrements DNS et met cette signature dans le DNS. Ainsi, un client DNS méfiant peut récupérer la signature et, s'il possède la clé du serveur, vérifier que les données sont correctes. La clé peut être récupérée via le DNS lui-même (ce qui pose un problème d'œuf et de poule) ou bien par un autre moyen (diffusée via le Web et signée avec PGP par exemple).

DNSSEC permet de déléguer des signatures : ainsi, le registre d'un domaine de premier niveau peut annoncer que tel sous-domaine est signé. On peut ainsi bâtir une chaîne de confiance depuis la racine du DNS.

DNSSEC introduit aussi ses propres problèmes, par exemple, le fait qu'un enregistrement spécial (NSEC, utilisé pour prouver la non-existence d'un enregistrement) indique le prochain domaine de la zone permettant d'énumérer le contenu complet d'une zone signée, même si le transfert de zone n'est pas permis. Ce problème fait que la plupart des TLD utilisent l'enregistrement NSEC3, qui n'a pas ce défaut.

Lien: http://fr.wikipedia.org/wiki/Domain_Name_System_Security_Extensions

Qu'est-ce que la protocole DANE

L'IETF (Internet Engineering Task Force) a proposé le protocole/mécanisme DANE (DNS - based Authentication of Named Entities) qui s’appuie sur le DNS pour authentifier des entités applicatives.

Cette démarche s'inscrit dans une logique de sécurisation des accès clients-serveurs en:
Sécurisant les requêtes DNS effectuées depuis les postes clients au travers des protocoles/mécanismes DNSEC et TLSA
Mieux sécuriser les accès chiffrés des clients vers le serveurs
 
0 vote

Par BIAOU Ramanou le 01/01/2014 à 02:03 Voir l'article


 
0 vote

Par BIAOU Ramanou le 11/04/2013 à 19:37 Voir l'article



The Internet Governance as defined after the Tunis Summit on the Information Society in 2005 became a concept and concern of the states, private sector and civil society. Those different actors and stakeholders part s'activated to ensure a bright future and a better future Internet to the international community.
The African countries do not remain on the sidelines of this concern because the Internet is a tool that all communities are entitled without any discrimination. Benin is also involved in this process through its local players, stakeholders and various commercial and non commercial entities.  
Several challenges and practical needs were clearly identified at the national level for better governance of the Internet. This is primarily the Freedom and Privacy, security and management of critical Internet resources. Despite these priorities, international challenges are not ignored at all.
 With regard to access and diversity, efforts from both government and civil society are implementations for a better service to citizens of the Internet. The State supports and strives through the private sector for an Internet available to the community without discrimination and geographical position.
As for the Internet Governance for Development [IG4D] it is also a transversal priority for the Internet community in my country Benin. Efforts are doing to provide paper relate to capacity building and establishment of an appropriate framework for the evolution of the Internet.
In terms of priorities related to the management challenges of Internet governance at the local level, they fall into three categories namely:
  •     The freedom and confidentiality of data and resource users
  •        The security of the Internet
  •        And the management of critical Internet resources.


From the point of view of freedom of expression and human rights, users of Benin have a free environment of major trade without restriction. The internet has become the platform of choice for communication. But the real danger here is based on the respect of user privacy and the confidentiality of user data. On these points the multi-stakeholder governance has  promoted the establishment of the Privacy Commission which works to protect the privacy of users of digital.
The other point is inseparable protection and Internet security. The joint United Group in Promoting cyber security in africa with Benin Telecom SA History operator can ensure security on the Internet in Benin and better traffic control.
Management of critical resources of the Internet remains a very important level of local governance of the Internet in Benin.
For example the domain name. BJ still suffers and is rarely used. Unlike other countries where it is managed by the actors of the Internet, the Internet community, this domain name suffers from its monopolization by the state telecommunications operator. Therefore it is very difficult to acquire and use; its maintainability and continuous service too are not easy.


By Ramanou B.
 
0 vote

Par BIAOU Ramanou le 11/04/2013 à 19:20 Voir l'article




Les 20 et 21 Avril 2013, EtriLabs servira de cadre à un événement mondial dénommé « International Space Apps Challenge » organisé par la NASA (National Air and Space Administration) se déroulant dans plus de 75 pays sur 6 continents sur la Station Spatiale Internationale. Pendant ces deux jours, les citoyens du monde entier vont travailler ensemble pour relever les défis actuels pertinents à l'exploration spatiale et aux besoins sociaux. Cotonou et St Louis au Sénégal sont les seules villes d’Afrique Francophone retenues cette année. Il n'y a que 3 autres sites dans le reste du continent.

A Cotonou, plusieurs équipes développeront des applications, des logiciels et autres dispositifs et les meilleures propositions seront primées. C'est également une occasion pour montrer au monde que le Bénin fait de bonnes choses malgré les défis particuliers que nous devons surmonter. 

 
0 vote

Par BIAOU Ramanou le 01/01/2013 à 15:18 Voir l'article



A toutes et à tous recevez mes vœux les meilleurs de bonne santé, de prospérité et de succès dans les projets.
Nous vous promettons pour cette nouvelle année plein d'articles innovants sur le numérique dans le monde.
Que du meilleur pour vous!!!
 
0 vote

Par BIAOU Ramanou le 01/01/2013 à 14:55 Voir l'article

Une nouvelle année de nouveaux défis...
A toutes et à tous recevez mes vœux les meilleurs de bonne santé, de prospérité et de succès dans les projets.
Nous vous promettons pour cette nouvelle année pleins d'articles innovants sur le numérique dans le monde
Que du meilleur pour vous!!!
 
0 vote

Par BIAOU Ramanou le 28/06/2012 à 12:28 Voir l'article

L’apparition de l’Internet et des TIC[1] en particulier ont été une véritable opportunité pour les nations d’accélérer leurs développements. Tous les pays du monde ont eu les mêmes droits de s’approprier et d’intégrer leurs services dans ces nouveaux outils de communications. Comme si ce n’était pas une chance pour certaines communautés du monde d’accélérer leurs développements, l’apparition de l’internet et du numérique est donc venu ajouter à la disparité socio-économique une autre disparité numérique. Le vocable « Digital Divice », entendez fracture numérique a donc été institué comme thème de discussion dans le cadre de cette problématique.   Lire la suite