samedi 21 juillet 2018

Vocabulaire essentiel pour parler d'égal à égal avec un informaticien.

Informatique

Traitement automatisé de l’information.

Ordinateur ou Système informatique

Machine électronique permettant le traitement automatique et à très grande vitesse de l’information.

On en distingue 3 sortes :   
                 
v  Les serveurs possédant un système d’exploitation (Windows, MacOS ou Linux versions Serveur), un processeur (XEON multi-cœurs), une mémoire (ECC à tolérance de panne) et des systèmes de disques (RAID à tolérance de panne) tous spécifiques. Les ordinateurs serveurs sont les seuls à permettre un vrai partage à plusieurs utilisateurs de données et d’applications sur un réseau et à pouvoir gérer les droits accordés à ces utilisateurs.
v  Les stations de travail possédant un processeur puissant (XEON ou i9 ou i7), une mémoire vive plus importante (16Go minimum), des disques durs rapides (SSD ou HYBRIDES 1 To minimum) et une carte graphique haut de gamme avec sa propre mémoire vive (4 Go minimum) pour pouvoir faire fonctionner de façon fluide les logiciels graphiques et de calculs 3D les plus exigeants de type AUTOCAD, PHOTOSHOP, ILLUSTRATOR, QUARKXPRESS...
v  Les machines clientes ou Bureautiques possédant une configuration basique de type processeur i3 ou i5, mémoire vive 4Go et disque dur standard de 500Go pour se connecter à un serveur sur un réseau et pouvoir exécuter les logiciels Bureautiques de base de type Word, Excel ou Outlook.

Logiciel ou Programme

Ensemble d’instructions logiques codées de façon binaire indispensable au traitement automatique de l’information par un système informatique.

On en distingue 2 sortes :

v  Les systèmes d’exploitation ou OS (Operating System). Windows 7 ou 10, Windows Serveur 2012 ou 2016, MacOS X et les différents distributions libres de Linux (Ubuntu, Debian, Red Hat,…) sont des OS. Il s’agit de la première couche logicielle traitée par l’ordinateur, celle qui va permettre à son cœur, c’est-à-dire le processeur et la mémoire, d’interagir avec son environnement soit, les périphériques d’entrée, clavier, souris, voix, doigt, scanner, les périphériques de sortie, écran, imprimante, les périphériques de stockage, disques durs internes et externes, clés USB, cartes mémoire, et enfin les interfaces réseaux, carte Ethernet et carte WiFi.
v  Les applications. Il s’agit de la seconde couche logicielle composée des programmes logiques interprétés par l’ordinateur et son OS en tâches particulières à accomplir comme naviguer sur Internet avec Chrome ou Firefox, traiter du texte avec Word, effectuer des calculs et des graphiques évolués avec Excel, gérer des bases de données avec Access ou Oracle, retoucher des images avec Photoshop, créer des plans avec AutoCad, tenir une comptabilité avec EBP ou SAGE, etc… Les applications peuvent s’exécuter en local après avoir été installées sur le disque dur d’un ordinateur ou via un navigateur Internet (Windows Explorer ou Edge, Google Chrome, Mozilla Firefox,…),  si elles sont hébergées en mode SaaS (Software as a Service) par leur éditeur.

Octet ou Byte en anglais

Unité de base du langage informatique correspondant à la succession de 8 positions binaires ou Bits (BInary digiT) constituées chacune d’un 0 ou d’un 1, soit 28 (=256) possibilités différentes pour 1 octet. 1 Ko est donc constitué de 1.024 octets (mille octets), 1 Mo de 1.048.576 octets (1 million d’octets), 1 Go de 1.073.741.824 octets (1 milliard d’octets), 1 To (Téraoctet) de 1.024 Go (mille milliards d’octets) et 1 Po (pétaoctet) de 1.024 To (1 million de milliards d’octets). Pour exemple, le document WORD créé pour concevoir ce lexique a une taille de 24.000 octets ou 24 Ko.

Cloud

Ensemble des systèmes informatiques physiquement externes au réseau local et connectés à lui par l’intermédiaire d’Internet.

Routeur ou Box ou Passerelle

Elément intermédiaire d’un réseau informatique assurant le routage des paquets de données entre réseaux indépendants. C’est donc l’appareil qui permet aux machines du réseau local de se connecter au réseau externe Internet ou à d’autres réseaux locaux distants. Les Switchs permettent eux de connecter les machines entre elles.

VPN ou Réseau Privé Virtuel

Protocole réseau permettant à 2 réseaux locaux distants de se connecter entre eux via généralement 2 routeurs (à travers les ports 1701 et 1723) et la mise en place d’un « tunnel » sécurisé entre eux faisant office de câble Ethernet virtuel. Les réseaux se « verront » alors l’un l’autre comme si ils coexistaient sur le même réseau local. Raccourcis, lecteurs réseaux, imprimantes pourront donc être configurés comme si un seul réseau local existait.

Bureau à Distance (TSE, Terminal Service Edition ou RDS, Remote Desktop Services)

Autre protocole réseau permettant de se connecter non pas à un réseau distant mais à une seule machine distante par l’intermédiaire également d’un routeur qui devra accepter cette connexion depuis l’extérieur de son réseau local via le port 3389.  La machine distante sera alors visible et contrôlable à travers une fenêtre ouverte sur l’ordinateur client. Des logiciels tiers à l’application de Bureau à Distance incluse dans Windows permettent de simuler ce fonctionnement : TeamViewer, AnyDesk, LogMeIn,… Enfin, des licences payantes sont nécessaires si plusieurs utilisateurs veulent se connecter en même temps à la même machine qui sera nécessairement un serveur.

Adresse IP (Internet Protocol)

Numéro d'identification UNIQUE attribué de façon permanente (IP fixe) ou provisoire (IP dynamique) à chaque branchement d’un appareil électronique  à un réseau informatique utilisant l'Internet Protocol. L'adresse IP est à la base du système d'acheminement (appelé routage) des paquets de données sur Internet ou sur un réseau local où l’adressage IP le plus répandu est du type 192.168.0.X

DHCP (Dynamic Host Configuration Protocol)

Ou « protocole de configuration dynamique des hôtes » qui est un protocole réseau dont le rôle est d'assurer la configuration automatique des paramètres IP d'une machine, notamment en lui attribuant automatiquement une adresse IP unique et un masque de sous-réseau. Ce sont essentiellement les routeurs et les machines serveurs du réseau qui ont ce rôle d’assignation et de gestion des adresses IP sans lesquelles aucune communication entre machines ne serait possible.

DNS (Domain Name System)

Ou « système de noms de domaine » qui est le service informatique utilisé pour traduire les noms de domaine Internet ou les noms de machines réseau compréhensibles et mémorisables par l’homme en adresse IP seule compréhensible par la machine. Par exemple, l’adresse connue de tous « google.fr » est renvoyée par le serveur DNS vers l’ordinateur à l’adresse IP « 172.217.22.131 », inconnue de tout le monde, et attribuée par l’iANA (Internet Assigned Numbers Authority) à l’entreprise GOOGLE. Sans serveur DNS il faudrait donc mémoriser toutes les adresses IP uniques de tous les sites que nous consultons. Les mails aussi utilisent le DNS pour trouver leurs destinataires, via les protocoles POP et IMAP en réception, SMTP en envoi et EXCHANGE dans les 2 sens.

Image système

Une image système, aussi appelée image disque, est une copie complète du disque dur d’un l’ordinateur incluant système d’exploitation, données et applications. Elle sert à dupliquer le contenu intégral du disque dur afin d’obtenir une copie de sauvegarde de la machine. Le fichier image unique ainsi créé peut ensuite être enregistré sur un autre support (clé USB, CD/DVD, ou disque dur externe), puis « remontés » sur un autre ordinateur pour créer un clone de la machine d’origine. YOOBACKUP, VEAM ou ACRONIS sont autant de logiciels qui permettent de réaliser et de sauvegarder des images systèmes.
Créer et sauvegarder en externe l’image système d’une machine importante sur le réseau permet un PRA (Plan de Reprise d’Activité) plus rapide qu’une simple sauvegarde de données en cas de plantage ou d’attaque virale sévère qui obligerait à réinstaller complètement un nouveau système puis à réinjecter les données sauvegardées.

Machine Virtuelle

Une machine virtuelle (en anglais Virtual Machine ou  VM) est une « illusion » d'ordinateur créée par un logiciel d'émulation (de type Virtual Box ou Virtual PC) ou un hyperviseur (de type HyperV ou VmWare) qui simule dans l’ordinateur hôte la présence de ressources matérielles et logicielles telles que la mémoire, le processeur, le disque dur, le système d'exploitation et les pilotes de périphériques, permettant ainsi d'exécuter des programmes dans les mêmes conditions que celles d’une machine physique. Un même ordinateur peut héberger plusieurs VM.
Créer et sauvegarder en externe une machine virtuelle qui contient les données et exécute les applications sensibles de l’entreprise permet un PCA (Plan de Continuité d’Activité) plus instantané qu’un simple PRA.


jeudi 5 avril 2018

Dix tendances technologiques qui pourraient marquer les entreprises en 2018

De l'intelligence artificielle à la réalité augmentée.

1- Chatbots

Si les chatbots (agents conversationnels) n’ont rien de nouveau, au fil des années ils deviennent de plus en plus perfectionnés. Il faut dire que l’intérêt du chatbot est multiple et peut toucher de nombreux domaines de la vie quotidienne, ils permettent d’acheter des produits ou des services, de résoudre un problème, de faire une réclamation, de payer une facture, de prendre rendez-vous. Ils permettent surtout d’obtenir une réponse instantanée à une question posée par un utilisateur. Dès lors, il est aisé de comprendre l’intérêt que cela présente pour l’entreprise, en termes de relation clients.

Autant d’arguments qui ont peut-être contribué au fait que, dans ses prévisions de février 2018, Gartner a indiqué que les chatbots seront utilisés dans 25 % des opérations de service à la clientèle d'ici 2020

Selon Gartner, de grandes économies peuvent être réalisées grâce à la technologie. Les organisations ont signalé une réduction allant jusqu'à 70 % des demandes d'appel, de chat et/ou de courriels après l’implémentation de chatbots. Elles ont également noté une augmentation de la satisfaction de la clientèle.



2 - IdO

Un récent rapport CompTIA révèle que les appareils connectés aident à réduire les coûts et à améliorer l'efficacité dans les environnements industriels. « De la collecte de nouvelles données à l'automatisation de l'infrastructure », rapporte l'étude CompTIA, « les entreprises trouvent de nombreux avantages à ajouter de la connectivité et de l'intelligence à l'infrastructure physique. » 

Rowan Trollop, vice-président senior de l'IdO chez Cisco, note les augmentations de l'IdO dans les usines intelligentes, reliant les appareils, les capteurs et d'autres actifs. 

Mais il ne faut pas oublier que cette adoption grandissante s’accompagne également d’une menace que des botnets comme Mirai n’ont pas manqué de rappeler durant ces dernières années. Des menaces qui créent le besoin d’une plus étroite collaboration entre l’industrie de la construction et les groupes informatiques afin de mieux identifier les risques et de fournir une protection étendue. D’ailleurs, Trollop rappelle que « L'escalade des risques signifie que la fabrication – une industrie généralement lente à mettre en œuvre des mesures de sécurité – doit être plus rapide à prendre des mesures. »



3- Les expériences immersives (réalité virtuelle, réalité augmentée, réalité mixte)

C’est un domaine qui continue toujours d’intéresser les entreprises, les développeurs, mais également le grand public. Diverses initiatives ont été amorcées dans la réalité augmentée, comme ARCore chez Google, qui l’apporte sur mobile ou ARKit chez Apple. 

Notons également que Google a lancé l’année dernière une plateforme appelée Poly où les utilisateurs peuvent trouver et distribuer des objets de réalité virtuelle et augmentée. « Si vous effectuez des développements pour la réalité virtuelle et augmentée, vous avez besoin d'objets 3D pour vos applications. Avec Tilt Brush et Blocks, nous avons facilité la création 3D. Maintenant, nous voulons permettre aux créateurs et aux développeurs de s'appuyer sur le travail de chacun. C'est pourquoi nous avons créé Poly : un endroit pour parcourir, découvrir et télécharger des objets 3D  », a assuré Andrea Zvinakis, Product Manager de Poly. 

Le cabinet de recherche Gartner s'attend à ce que, d’ici l'année prochaine, les technologies de cette industrie (réalité augmentée, réalité virtuelle et réalité mixte) profitent à 20 % des grandes entreprises. D’ailleurs, le cabinet table sur des revenus de 72 milliards de dollars générés uniquement sur les visiocasques.

Au passage, notons qu'à partir de samedi 31 mars 2018, il sera possible de survoler Paris grâce à la réalité virtuelle. L'attraction Flyview propose un survol de la ville lumière à 360°, en regardant où on le souhaite et en ressentant les émotions d'un vol en « jet-pack ».

« Ce n'est pas une reconstitution en 3D. Nous avons eu toutes les autorisations de survol. Les prises de vue ont été faites par drone avec des systèmes de caméras un peu spéciaux, car il y avait sept caméras au-dessous pour filmer à 360°, en dessous et au-dessus », explique le fondateur de Flyview Paris Arnaud Houette, qui travaille depuis trois ans sur ce projet.



4- Intelligence artificielle pour les services

L’intelligence artificielle n’est plus à présenter tellement son développement a suscité de nombreuses craintes et donné lieu à des échanges plutôt animés.

Kevin Ryder, directeur marketing de la société de logiciels Integrated Research, explique que « L'IA aide même à prédire le comportement des clients, en fournissant des conseils aux représentants du service clientèle sur la meilleure façon de résoudre un problème particulier ». Et de continuer en disant « Qu’en 2018, nous verrons une acceptation encore plus grande des bots comme une alternative légitime à l'interaction humaine pour le service à la clientèle. » 

Gartner se veut rassurant et a estimé que l’intelligence artificielle va créer plus d’emplois qu’elle ne va en éliminer d’ici 2020.

En attendant de voir la justesse des prévisions du cabinet, le gouvernement chinois a rendu public récemment le plan de développement national qu’il compte mettre en place pour l’émergence de l’intelligence artificielle « made in china ». Ce projet prévoit d’augmenter le poids économique de ce secteur d’avenir de 150 milliards de yuans (22,15 milliards USD) d’ici 2020 à 400 milliards de yuans (59,07 milliards de dollars) à l’horizon 2025, selon les chiffres officiels fournis par le gouvernement chinois. 

Notons que la France veut investir 1,5 milliard d'euros dans l'intelligence artificielle d'ici 2022



5- Conteneurs et microservices

Les conteneurs et les microservices suscitent l'intérêt des organisations qui ont besoin de développer rapidement des applications, en particulier celles qui utilisent l'IdO et/ou le cloud.

« Il est intéressant de voir les projets IdO tirer parti de nombreuses technologies de pointe ainsi que des structures organisationnelles autour de DevOps et microservices », explique Todd Loeppke, architecte CTO principal chez Sungard AS.

Dan Juengst, principal évangéliste technologique chez OutSystems, explique que les plateformes de conteneurs et de microservices sont attrayantes pour les nouveaux projets plus petits et à faible risque.

« Au fur et à mesure que les entreprises se sentiront plus à l'aise avec la gestion de ces architectures de microservices modernes basées sur des conteneurs, nous verrons une croissance continue », explique Juengst. « De nombreuses entreprises se tournent vers les plateformes d'orchestration de conteneurs telles que Docker, Kubernetes ou Cloud Foundry pour aider à gérer le cycle de vie des conteneurs à mesure que leur utilisation augmente. » 



6 - Blockchain

Cette technologie a déjà beaucoup fait parler d’elle, notamment pour les diversités d’application. Nous pouvons parler de :

l’agroalimentaire, avec la technologie BaaS (Blockchain as a Service) proposée à IBM à des grandes enseignes comme Nestlé, Unilever, Walmart, Dole, Driscoll’s, Golden State Foods, Kroger pour la traçabilité des denrées périssables ;


les banques, avec l’alliance formée par Microsoft, Intel et une poignée de grandes banques qui se sont regroupés pour adapter la Blockchain Ethereum aux besoins des entreprises ;


les processus électoraux, avec la technologie développée par Agora qui a été proposée en Sierra Leone pour vérifier en temps réel les résultats de votes.


Amit Zavery, vice-président senior du développement de produits chez Oracle Cloud Platform, affirme qu’il y a « Déjà plus de 2500 nouveaux brevets liés à la blockchain qui ont été déposés. » 

Des projections indiquent que l'impact financier devrait atteindre 176 milliards de dollars d'ici 2025. Selon lui, en deux ans seulement, la blockchain devrait devenir la norme du commerce moderne. On pourrait dire que la blockchain a déjà atteint ce statut et commence à influencer tout aussi profondément les autres industries, dans les secteurs de la santé, du commerce au détail, du secteur public et autres.



7 - Vision par ordinateur

La vision par ordinateur (aussi appelée vision artificielle ou vision numérique) est une branche de l'intelligence artificielle dont le principal but est de permettre à une machine d'analyser, traiter et comprendre une ou plusieurs images prises par un système d'acquisition (par exemple : caméras, etc.).

Avec le buzz créé autour des véhicules autonomes et des magasins intelligents comme Amazon Go, la vision par ordinateur est en train de prendre son envol.

Selon Chris Nicholson, chef de la direction de Skymind, le transport de marchandises est un domaine propice à l'intégration de l'IA et de la vision par ordinateur. « FedEx et d'autres grandes entreprises ont piloté cette technologie, tandis que des start-up telles que [la société de transport routier] Peloton la construisent de zéro. »

Les entreprises qui cherchent à embaucher des ingénieurs dans le domaine trouvent la tâche quelque peu difficile. « La vision par ordinateur est la position la plus difficile à remplir », explique Mike Grandinetti, directeur marketing et CSO de la société de stockage Reduxio. « Les candidats qualifiés gagnent 400 000 $ en salaires », explique-t-il, s'attendent à beaucoup de liberté et à beaucoup d'équité.



8 - Assistants virtuels

La bataille fait rage dans ce domaine. Microsoft (avec Cortana), Google (avec Google Assistant), Apple (avec Siri) et Amazon (avec Alexa) se livrent une guerre sans merci sur le marché des assistants virtuels.

Pour des analystes, 2018 va marquer le coup dans l’amélioration du traitement du langage naturel dans ce domaine.

« Les assistants à commande vocale ont déjà commencé à imprégner le milieu des affaires, mais il est encore trop tôt pour exploiter pleinement la puissance de cette technologie », a estimé Christian Pedersen, chef de produit de S/4HANA Cloud chez SAP. « Nous commençons à voir des exemples de la demande et du besoin de ces technologies avec l'annonce d'Alexa for Business en fin de l'année dernière et la prise de contrôle de l'assistant vocal que nous avons vu au CES ». 



9 - La technologie intelligente au service de la santé

2017 a vu exploser les investissements dans les entreprises de santé associés au numérique pour atteindre près de 6 milliards de dollars aux États-Unis et un record de 345 transactions, selon Rock Health. StartUp Health, qui analyse le financement de la santé lié au numérique dans le monde entier, rapporte que 11,5 milliards de dollars de fonds ont été apportés en 2017, soit 3,3 milliards de plus que l’année précédente.

Cette année, la santé et le bien-être ont compté parmi les thèmes majeurs du CES de Las Vegas. 

Le SmartSleep, un nouveau bandeau frontal dévoilé par Philips au cours du CES 2018, utilise des capteurs intégrés qui, au contact du front, détectent l’activité cérébrale. Lorsqu’une phase de sommeil profond est identifiée, les haut-parleurs intégrés au bandeau se mettent à diffuser des tonalités personnalisées qui renforcent la profondeur et la durée du sommeil à ondes lentes.

Au cours du CES, Dassault Systems a dévoilé un programme nommé « Living Heart Project », qui vise à construire des prototypes en 3D de vrais cœurs défectueux que les équipes médicales pourront visualiser sur un écran 3D. La simulation holographique est désormais à la portée du personnel médical qui pourra, dès lors, discuter de la manière de mener une opération en observant le modèle en 3D.



10 - L’association du cloud avec l’edge computing

L’edge computing consiste à traiter les données à proximité de la périphérie du réseau utilisé pour générer des données et non dans un entrepôt de traitements de données centralisés comme un centre de données. Pour ce faire, l’edge computing suppose une architecture informatique distribuée qui présente une puissance de traitement décentralisée. L’avantage avec cette pratique est que cela favorise l’accélération des flux de données et élimine les problèmes de connectivité, de latence, ou de bande passante. 

Pour Gartner, les entreprises devraient commencer à utiliser de plus en plus les modèles de conception du edge computing dans leurs architectures et spécialement pour celles avec des éléments importants de l’internet des objets. Et au-delà de la croissance de l’adoption de cette technologie, Gartner précise que le cloud computing et l’edge computing devront être utilisés ensemble de sorte que le cloud gère le modèle axé sur les services et l’edge computing s’occupe un style de livraison des données qui permet d’exécuter des aspects déconnectés du service cloud

Source : www.developpez.com

samedi 24 mars 2018

Think 2018 : l'ordinateur IBM de la taille d'un grain de sel

Et doté de la puissance d'un x86 des années 90

IBM démarre sa conférence Think 2018 sur les chapeaux de roues avec la présentation de ce qui serait l’ordinateur le plus petit au monde au moment où ces lignes sont écrites. Il n’y a qu’à repérer le point de couleur noire sur l’illustration qui suit pour se faire une idée de la taille de ce dernier.


Dans les chiffres, l’ordinateur tiendrait sur 1 mm2, de quoi le comparer à un grain de sel. À date, seul le Micro Mote – un ordinateur présenté au public en 2015 par les ingénieurs du département du génie électrique et informatique de l’université du Michigan aux États-Unis – fait dans la même catégorie avec une surface qui approcherait les 4 mm2

Salt – c’est le nom qu’on a choisi de lui attribuer pour le moment – est muni d’un microprocesseur dont IBM a dit qu’il rivalise avec une puce x86 des années ’90. On ne vous dira pas pour le moment de combien de mégaoctets l’ordinateur est équipé, mais on sait déjà qu’il s’agit de mémoire statique (SRAM). Enfin, si on parle d’ordinateur, c’est que des interfaces de communication avec l’environnement externe sont prévues. Salt est muni d’une unité de communication avec un afficheur à diodes électroluminescentes et d’une interface avec un détecteur de luminosité. Il est prévu que l’alimentation en énergie de la puce soit assurée par une cellule photovoltaïque.


Pour quelles applications  ?

Ces ordinateurs sont utiles où l’on a besoin de capteurs intelligents miniatures, par exemple dans l’univers des objets connectés. Le Micro Mote a été présenté comme un système ordiné autonome capable d’effectuer des prises de décision sur la base d’informations collectées dans l’environnement extérieur. Il a été conçu pour pouvoir être injecté à un être vivant afin de l’intégrer dans un réseau d’objets dits intelligents. Des entreprises ont déjà passé le cap en intégrant ces puces à leur flux de travail. En février 2017, huit salariés d’une société belge se sont fait implanter des puces RFID sous la peau. Deux mois plus tard, au nord de l’Europe, en Suède plus précisément, c’était le tour des employés d’Epicenter.

Pour revenir à l’annonce liée à Salt, The Verge rapporte qu’IBM entrevoit des applications dans la gestion de la chaîne d’approvisionnement et la protection contre les contrefaçons en s’appuyant sur la chaîne de blocs. La conférence Think se poursuit jusqu’au 22 mars. On en saura probablement plus à propos de cet ordinateur d’ici là.

Source The Verge, developpez.com

Règlement général sur la protection des données

Il faut s'y préparer ! RGPD : neuf notions essentielles à retenir.

Que signifie RGPD-GDPR

Le Règlement général sur la protection des données, ou GDPR (General Data Protection Rule) modernise une précédente directive, datant de 1995 et révisée en 2004. Voté en mai 2016 par le Parlement européen après quatre ans de négociations, le RGPD définit un ensemble de règles communes pour tous les acteurs traitant à grande échelle des données personnelles de citoyens européens. Il remplace de fait les 28 législations existantes

Données personnelles

Il s'agit de toutes les informations liées à une personne physique identifiée ou identifiable : le nom, le prénom, l'adresse postale, l'adresse courriel, les données de localisation... Dans la mesure où la plupart des données anonymisées peuvent tout de même conduire à l'identification d'un individu, le règlement s'applique de fait à tous les acteurs - ou presque - traitant des données personnelles.

Ce que les entreprises doivent être capables d'expliquer

Avec le RGPD, n'importe quelle entreprise dans le monde traitant des données de citoyens européens devra être capable d'expliquer clairement pourquoi les données sont collectées. Le citoyen européen est en droit de connaître depuis quand les données sont récoltées, combien de temps elles seront stockées, où, et avec quels moyens de sécurisation. L'entreprise doit aussi expliquer avec quelles autres sociétés les données seront partagées et comment elles seront exploitées par ces tiers (marketing personnalisé, achat programmatique...).

Consentement "explicite"

L'utilisateur devra donner un accord non ambigu pour la collecte et l'exploitation de ses données. S'il refuse, il devra tout de même pouvoir accéder au site concerné, dans la mesure du possible. Ce qui n'est pas le cas actuellement : de nombreux acteurs imposent d'accepter l'exploitation des données personnelles - dans des termes souvent peu clairs - sous peine de se voir refuser l'accès au service. Les entreprises qui s'adressent aux mineurs de moins de 16 ans devront rédiger le texte de consentement en des termes clairs et facilement compréhensibles.

Portabilité des données

La loi informatique et libertés de 1978 a créé un droit d'accès aux données. Le RGPD va plus loin avec la portabilité des données, qui permet à un individu de demander à une entreprise de lui fournir, « dans un format structuré, couramment utilisé et lisible par machine » (art. 20), l'intégralité de ses données personnelles, pour qu'il puisse les transférer à un autre prestataire. De quoi, par exemple, changer d'énergéticien sans perdre son historique de consommation.

Les nouveaux droits des citoyens

Renforcé par le RGPD, le droit à l'effacement dit « droit à l'oubli » (article 17) permet à un individu de demander la suppression de ses données personnelles. Le « responsable du traitement » doit l'effectuer « dans les meilleurs délais ». Par ailleurs, vous pouvez aussi exercer à tout moment votre droit de rectification (art. 16), votre droit à la limitation du traitement (art. 18) et votre droit d'opposition (art. 21). Ce dernier s'applique par exemple lorsque les données personnelles sont utilisées à des fins de prospection. En cas de violation au règlement, des actions collectives peuvent être menées par des associations actives dans le domaine de la protection des droits et libertés.

DPO (Data Protection Officer)

Le Data Protection Officer (DPO) est le chef d'orchestre de la gouvernance des données au sein d'une entreprise ou d'une collectivité. Sa désignation est une obligation pour les structures publiques (hôpitaux, collectivités...) et pour les entreprises qui traitent des données à grande échelle, ou des données « sensibles » (données génétiques, biométriques, afférentes à la santé, à la religion, aux opinions politiques ou à l'appartenance syndicale). Le G29 (organisme qui fédère l'ensemble des Cnil européennes) encourage les entreprises nonsoumises à obligation de se doter tout de même d'un DPO, en interne ou externalisé.

25 mai 2018

À partir de cette date, les entreprises en non-conformité avec la réglementation s'exposeront à des sanctions qui dépassent de très loin le périmètre actuel de la Commission nationale de l'informatique et des libertés (Cnil). En cas de manquement, notamment au "privacy by design" (intégrer la protection de la vie privée dès la conception) et au "privacy" par défaut (garantir le plus haut niveau de protection des données), les contrevenants risquent de payer une amende s'élevant à 10 millions d'euros ou, dans le cas d'une entreprise, à 2% du chiffre d'affaires annuel mondial. Ils encourent jusqu'à 20 millions d'euros ou 4% du chiffre d'affaires annuel mondial pour manquement aux droits des personnes (portabilité, rectification, opposition, limitation, droit à l'oubli...)

Fin des obligations déclaratives

Cette mise en marche forcée des acteurs traitant des données personnelles, sous peine de sanctions d'une ampleur inédite, vise aussi à alléger les formalités administratives. Le RGPD supprime les obligations déclaratives. En revanche, les structures de plus de 250 salariés (et celles de moins de 250 salariés mais dont le traitement de données peut avoir des répercussions sur la vie privée) doivent mener une étude d'impact sur la vie privée (EIVP) et tenir à jour en permanence un registre de traitement qui pourra être demandé par la Cnil en cas de contrôle.

Source : http://flip.it/zK7Z9a

mercredi 15 novembre 2017

Windows 10 tient la route

Après moult atermoiements des utilisateurs et des professionnels, il faut se rendre maintenant à l'évidence après plusieurs mois d'utilisation et de recul : Windows 10 tient vraiment la route. Pour avoir personnellement connu, utilisé et donc testé toutes les versions des OS de Microsoft depuis MS-DOS 1.0, sa dernière version se révèle d'une stabilité et d'une robustesse jamais connues. Plus d'écrans bleus, plus de "roues" dans le vide, plus de démarrage forcé en mode sans échec, Windows 10 nous libére enfin de tous ces anciens tracas et nous permet de nous concentrer enfin sur notre seule productivité numérique sans devoir nous transformer en technicien de maintenance interrogeant sans cesse le moindre forum de résolution de problèmes. Alors rendons exceptionnellement hommage aux développeurs d'Atlanta qui ont su grandir et progresser à l'ombre des échecs de Millenium, Vista et autres versions 8 même si cette nouvelle fiabilité reste courante concernant les OS alternatifs...et gratuits.

samedi 9 septembre 2017

Le quantique comme une voie de plus en plus certaine

L'ordinateur quantique n'est plus un rêve mais une réalité en plein développement et c'est tant mieux. Adieu le binaire et les puces de silicium qui bientôt se heurteront au mur de Planck et bonjour les atomes hyper refroidis générateurs de qubits surpuissants et sans limite pour résoudre les mystères encore sans réponse et peut-être aider l'humanité à voir plus clair dans tous les domaines qui nous semblent aujourd'hui sans issue car si dieu ne joue toujours pas aux dés, l'incertitude admise de la matière commence à donner des résultats mathématiques impressionnants.
https://www.developpez.com/actu/158025/Une-equipe-de-scientifiques-russo-americaine-presente-le-premier-ordinateur-quantique-a-51-qubits-il-depasse-largement-les-prototypes-precedents/

mercredi 26 juillet 2017

Des qubits à la portée de tous.

Depuis des années, Google consacre du temps et d’importantes ressources financières afin de concrétiser l’un des rêves les plus ambitieux autorisés par la technologie moderne : la construction d’un ordinateur quantique viable. Grâce aux progrès qu’elle a réalisés dans ce domaine, la société envisage, désormais, les différents moyens de transformer son projet en un business rentable. Les ordinateurs quantiques sont censés résoudre des problèmes que les ordinateurs traditionnels ne peuvent pas gérer. Contrairement aux ordinateurs traditionnels, qui traitent des parties de l’information en tant que données binaires sous forme de 1 ou de 0, les ordinateurs quantiques fonctionnent avec les qubits.

D’après des données publiées par Bloomberg, Google serait sur le point de démarrer la commercialisation des ordinateurs quantiques et tout porte à croire qu’ils seront proposés sous forme de service « cloud computing » (informatique dématérialisée) extrêmement puissant. La firme de Mountain View aurait offert aux laboratoires scientifiques et aux chercheurs en intelligence artificielle un accès précoce à ses machines quantiques au travers d’Internet durant ces derniers mois. Google souhaitait ainsi encourager le développement d’outils et d’applications compatible avec sa nouvelle technologie qu’elle voudrait également transformer en un service de cloud computing plus rapide et plus puissant.


Dans son article, le média Bloomberg fait allusion à deux présentations de Google. L’une détaillerait le matériel quantique de la société, y compris le nouveau laboratoire de l’entreprise dédié à cette technologie baptisé « Embryonic quantum data center ». La seconde présentation détaillerait le ProjectQ de Google qui a été mis en place afin d’inciter les développeurs à écrire du code pour son ordinateur quantique.

Fournir un accès rapide et gratuit à un matériel hautement spécialisé dérivé des technologies de pointe afin de susciter un intérêt croissant s’inscrit dans la stratégie à long terme de Google qui vise l’extension de son activité cloud. En mai, la filiale d’Alphabet a présenté une puce, appelée Cloud TPU, qu’elle compte louer à des clients à la recherche de systèmes informatiques dématérialisés. En parallèle, l’entreprise a prévu d’accorder à un nombre restreint de chercheurs universitaires l’accès gratuit aux fonctionnalités de ses nouvelles puces.

Google et un nombre croissant d’autres entreprises comme IBM, Microsoft, SoftBank Group Corp. ou Star-D-Wave Systems Inc. sont convaincues que les ordinateurs quantiques et leurs applications vont révolutionner le monde de l’informatique de demain en accélérant exponentiellement le traitement de certaines tâches importantes. Il faut rappeler que c’est en 2014 que Google fait part de ses ambitions sur le développement de ses propres ordinateurs quantiques. Plus tôt cette année, l’entreprise technologique déclarait qu’elle comptait prouver la « suprématie » des systèmes quantiques sur les superordinateurs existants d’ici la fin de 2017.

Les ordinateurs quantiques sont des machines encombrantes qui nécessitent des soins particuliers pour rester fonctionnelles comme l’usage de systèmes de refroidissement avancés. Ils sont donc plus susceptibles d’être loués et utilisés à travers Internet plutôt que d’être achetés. Le fondateur de la startup quantique Rigetti Computing, Chad Rigetti, considère cette technologie comme un élément déterminant pour l’avenir. Toutefois, il estime que « cette industrie en est encore à ses balbutiements » et que « personne n’a, pour l’instant, construit un ordinateur quantique qui fonctionne ».

https://www.developpez.com/actu/150911/Google-veut-livrer-ses-ordinateurs-quantiques-sous-forme-de-services-de-cloud-computing-et-encourage-le-developpement-d-applications-dediees/

jeudi 23 mars 2017

Les concepts informatiques qui seront les plus utiles pour l'avenir.

Le machine learning, Le cloud computingLa virtualisation des systèmes, La virtualisation des applications, Le DevOps, La réalité virtuelle et la réalité augmentée, L’internet des objets.
https://systeme.developpez.com/actu/123386/Quels-concepts-informatiques-estimez-vous-les-plus-utiles-en-2017-Et-pourquoi/

samedi 11 février 2017

Quel avenir informatique ?

Résultat de recherche d'images pour "futur informatique"La vente de PC dégringole pour la première fois de sa courte histoire, le marché des smartphones sature, celui des tablettes résiste un peu tandis que les objets connectés ne se vendent pas vraiment à la hauteur de ce que tous attendaient, Apple en tête avec sa montre trop chère qui fait pschitt. Alors vers quoi allons-nous ? Sur quels leviers l'industrie du numérique pourra-t-elle compter dans un avenir plus ou moins proche ? Elle peut d'ores et déjà se reposer sur les data centers, bien sûr, le tout Cloud et le SaaS, le Web 3.0 et bientôt 4.0 qui aspirent peu à peu les ressources locales par la double montée en puissance de la vitesse des connexions réseaux et de la maturité enfin reconnue de la virtualisation. HP et Microsoft l'ont bien compris en proposant déjà des offres complètes et diverses de bureaux à distance et de machines hébergées. Le DaaS (Device as a Service) existe bien aujourd'hui, alternative crédible à l'achat de matériels lourds et difficiles à maintenir avec la garantie d'une continuité d'activité, et non plus d'une reprise plus ou moins longue, en cas de moindre panne ou d'attaque virale. À moyen terme, on peut penser que le relai sera pris par l'intelligence artificielle qui promet de tels bouleversements de productivité qu'il serait bon de s'y préparer dès aujourd'hui au risque de voir le marché du travail une fois de plus peiner pour s'y adapter. Enfin, d'ici une ou deux décennies, ne doutons pas que l'ordinateur quantique nous permettra d'envisager d'autres voies, économiques, politiques et scientifiques, capables de nous éloigner de nos vieux réflexes grégaires, capitalistes et conservateurs.

dimanche 29 janvier 2017

La France leader de la cryptologie avec Prim'X

Résultat de recherche d'images pour "cryptographie"La Russie qui pirate les Etats-Unis, les États-Unis qui piratent le monde entier, y compris eux-mêmes, et la France qui regarde tout ça avec le détachement de ceux qui ont pris de l'avance. En effet, depuis de nombreuses années, grâce à la société Prim'X auquel il a fait (justement) confiance, le gouvernement français et toutes ses entités se retrouvent protéger par les algorithmes de cryptologie les plus avancés de la planète. Alors goûtons pour une fois notre supériorité.
http://www.lepoint.fr/high-tech-internet/cryptologie-la-start-up-francaise-que-tout-le-monde-s-arrache-24-01-2017-2099588_47.php#xtor=RSS-292

Ce blog a été créé pour partager une vision de l'informatique de demain et des enjeux économiques et sociologiques de l'accès universel à l'information.
"Le pouvoir au peuple", cette utopie révolutionnaire mise à mal par l'effondrement des systèmes collectivistes et par les limites aperçues aujourd'hui au sein même des régimes dits modernes, Etats-Unis en tête, reprend un peu de couleurs grâce à Internet.
Churchill a encore raison, la démocratie est le pire des systèmes mais on n'a pas trouvé mieux... Le modèle Internet, poussé à son extrème, est le seul capable aujourd'hui de lui donner tort.
Voyons donc comment cela pourrait se passer dans les années à venir...