Le blog de Genma
Vous êtes ici : Accueil » Veille Technologique » Autohébergement » L’élitisme de l’auto-hébergement

L’élitisme de l’auto-hébergement

D 23 mai 2016     H 09:00     A Genma     C 19 messages   Flattr cet article Logo Tipee

TAGS : Les réflexions du Genma Auto-hébergement Planet Libre

Dans ce billet je voudrais parler de l’élitisme de l’auto-hébergement. Le terme d’élitisme peut sembler un peu fort mais il ne l’est pas tant que ça. En 2016 l’auto-hébergement reste clairement une lubie de geek et une solution qui est tout sauf grand public. Je m’explique et je démontre ça dans la suite de ce billet.

MAJ & commentaire
- L’élitisme est un terme mal choisit, il faudra que je trouve un terme plus adapté
- Je ne remets pas en question le super boulot des équipes yunohost / brique, au contraire. Je veux monter en compétence pour pouvoir aider (faire du support ou autre) et encore plus démocratiser ça. Je vous invite à les contacter pour ne pas être seul-e dans cette aventure

Mon background

Je connais le principe de l’auto-hébergement depuis que je suis sous Linux, au début des années 2000. Dans mes fréquentations de l’époque, j’avais des amis geeks qui laissaient tourner en permanence des PC "serveurs" (comprendre avec un OS en ligne de commande, sans interface graphique contrairement à moi, à l’époque) pour partager des fichiers et autres services (IRC) via le réseau de la résidence universitaire. Tout un monde qui m’était parfaitement étranger à moi, qui n’était pas encore intéressé par l’informatique comme je peux l’être depuis une dizaine d’années maintenant.

Peu de temps après ces premiers contacts avec ce monde inconnu,je suis tombé dans la marmite du logiciel libre, de l’autodidaxie en informatique, j’ai commencé à faire de la veille sur différents domaines au quotidien. J’ai passé et je passe encore BEAUCOUP de temps à faire ça. Avec les années, j’ai donc toujours suivi de plus ou moins loin les évolutions dans le domaine, j’ai vu l’arrivée du Raspberry Pi et de Yunohost, la naissance du projet La brique Internet et la volonté de revenir à un Internet décentralisé pour lutter contre les GAFAM.

Etat des lieux

Nous sommes donc en 2016, il y a des solutions plus faciles qui simplifient beaucoup de choses (la Brique Internet et le système qu’elle utilise Yunohost en sont de très bons exemples), qui automatise les configurations. Mais il y a encore beaucoup à apprendre. L’auto-hébergement demande un certain nombre de connaissances, compétences et pratique au quotidien. Que ce soit pour la supervision/analyse des logs, mises à jour, configuration de la sécurité... Tout cela ne s’improvise pas et n’est pas encore si simple que ça. Et je ne parle pas des problématiques comme la création de sous domaine, d’un hidden service pour Tor, la mise en place de TLS (même avec Let’s Encrypt)...

Peut-être que j’ai un regardé biaisé, que j’en attends et demande trop, que je veux aller plus loin que ce n’est prévu pour ces solutions clefs en main. Peut-être.

Des connaissances

Des puristes m’ont dit : "Ton Yunohost c’est bien mais en automatisant, ça cache pas mal de choses". Et je ne peux que dire que je suis d’accord. Même si je fais confiance aux personnes qui sont derrière Yunohost pour être de meilleurs administrateurs et développeurs que moi (et ils le sont sans hésitation), je me penche tout de même sur le code source, je regarde les fichiers générés, j’étudie les fichiers de configuration et les choix qui y ont été faits. Mais c’est un choix et un investissement personnel que je souhaite faire.

Ce que je constat c’est qu’avant de me lancer dans cette aventure de longue haleine, j’avais déjà un certain nombre de connaissances de bases (j’ai un peu plus de dix ans de Linux sous Ubuntu), des notions d’administration système et une curiosité geek d’autodidacte qui me fait apprendre sans cesse de nouvelles choses.

Et plus le temps passe et plus j’en arrive à la conclusion que l’auto-hébergement nécessite d’avoir des prérequis en connaissances dans le domaine de l’administration (et être donc à l’aise avec les commandes shell correspondantes). Il faut par exemple savoir faire des sauvegardes et surtout les restaurer... Il faut également des connaissances en réseaux, en sécurité, en logiciel et développement (il faut comprendre des erreurs générés par PHP ou Python par exemple, selon le logiciel qu’on installé), en base de données... Il faut pouvoir toucher à tout.

Car dès qu’on sort des clous, dès que ça ne marche pas, dès que l’automatisation pose soucis, on se retrouve à devoir comprendre, analyser, chercher dans les forums et devoir formuler de façon technique... D’où le prérequis des connaissances.

Du temps

Pour pouvoir s’auto-héberger, il faut du temps. Il y a le temps de l’acquisition des connaissances préalables. Il y a ensuite tout le temps de la mise en place d’un système rôdé. Et ce, même si on utilise des outils pré-configurés et facilitant grandement le travail comme Yunohost. Le temps de tout mettre en place, pour vérifier que tout marche, réparer etc. surtout si l’on veut faire des choses un peu exotique... Dans mon cas, j’ai réinstallé un PC sous Debian (en ligne de commande, sans interface graphique). Et il faut donc du temps pour apprendre à savoir faire ça.

Puis il y aura le temps d’administration, de mettre à jour, de veiller (faire de la veille technologique)... Pour savoir réagir et mettre à jour rapidement si une faille critique est découverte (oui j’ai automatisé les mises à jour avec apt-cron).

Et il y a tout bêtement le temps de l’utiliser. Car avoir un système d’auto-hébergement à soi, avec tout un tas de services cloud, c’est bien. En avoir l’usage, c’est mieux. Combien de temps va-t-on passer à installer des services, à les configurer aux petits oignons, à régler le paramétrage de la façon la plus fine possible, pour finalement ne pas utiliser le service en question ?

De l’argent

Même si on a pris une machine de récupération (un vieux PC que l’on nous donne par exemple), il faut payer son abonnement Internet tous les mois et la consommation électrique de la machine. Il y a l’achat d’un nom de domaine. Éventuellement de pièces détachées (si un élément ne marche plus, un disque dur usb externe pour faire des sauvegardes. Voir à ce sujet mon billet sur le spare matériel).... Même si on se débrouille assez bien (un nom de domaine, c’est une dizaine d’euros par an, un PC basse consommation ou un Raspberry Pi c’est quelques euros d’électricité par an, on peut utiliser un disque dur qu’on avait déjà...)

Conclusion

Avoir des connaissances avancées en informatique, du temps et de l’argent, ce n’est pas donné à tout le monde. Tout le monde n’a pas la chance de pouvoir réunir ces 3 prérequis. Et c’est en cela que l’auto-hébergement est clairement quelque chose qui reste encore élitiste. Mais via mes billets de vulgarisation, mon retour d’expérience, mon partage de connaissance acquise et les synthèses que je fais, j’espère changer ça, en donnant autres des moyens de compréhension et d’appropriation des connaissances....

 Les Tags - mots clefs de ce article

 Vous aimez cet article? Soutenez le blog et partagez-le ;-)

Logo Tipee Flattr icon  Facebook icon  Twitter icon  Diapora icon   Licence Creative Commons

19 Messages

  • Je suis d’accord avec toi sauf sur certains points.
    L’autohébergement est d’abord chronophage, pour ma part je passais beaucoup trop de temps a triturer, configurer mon serveur perso et depuis que j’ai mis en place Yunohost je n’ai plus de problème et je ne passe plus mon temps a réparer ou a configurer des choses. Donc le problème du temps c’est résolu, pour moi en tout cas.
    Le problème de l’argent se résout lui aussi facilement, pour tester chez soi un raspberry 3 qui en pack se trouve a 50€ suffit pour se faire la main. Si on veut des solutions plus performantes on trouve des serveurs dédiés à 3€ par mois soit moins cher qu’un Raspi. Donc ça aussi c’est un problème qui en passe d’être résolu.
    Quand tu dis Yunohost c’est très bien mais on ne voit pas tout c’est vrai, sauf que c’est open source et que si de toute façon il venait à y avoir des trucs louches ou des configurations mal faites etc... le retour se fera par la communauté et pourra être corrigé.
    Je n’emploierais pas le mot élitiste parce qu’il suppose une hiérarchie basée sur les valeurs mais je dirait plus que oui c’est pour l’instant une affaire de passionnés qui fais de gros progrès pour se démocratiser (Cozy, YNH, Framasoft, etc...) notamment grâce au genre d’articles que tu publies.


  • > Ton Yunohost c’est bien mais en automatisant, ça cache pas mal de choses
    Que l’on apprends en partie au fur et à mesure, quand ça ne marche pas par exemple ou que l’on personnalise.
    Ça donne une bonne base, fonctionnelle et accessible, pour se lancer, plutôt que de devoir tout monter à la main, de zéro.
    La plus grosse difficulté, la plus bloquante à l’entrée, c’est la sécurité, qui tiens plus du pré-requis que de la connaissance apprise en cours de route.

    Totalement d’accord pour le temps.

    Après je pense qu’il est important d’y aller progressivement, de mettre en place et tester une première fois, provisoire et sans données critiques (ou peu), pour expérimenter, et après quelques temps recommencer avec cette fois un système sûr et mûr.

    Pour la partie argent, comme tu le souligne, elle reste très faible et accessible avec un raspberry + nom de domaine peu cher / fournit par une association / par yunohost.

    PS : tu as oublié de fermer une balise URL non ? ^^


  • Pour avoir moi-même un serveur dédié chez un hébergeur, je ne peux qu’approuver un certain nombre de points. C’est très chronophage, et lorsque l’on a peu de temps et/ou moins de connaissances que ce que l’on a estimé, c’est assez difficile de s’y mettre correctement. Pour ma part, je suis sûre d’avoir plein de choses à corriger sur mon serveur... Quand j’en prendrai le temps !
    Merci pour ce billet qui illustre bien mes frustrations et mes petites victoires :) !


  • Ne faut-il pas ajouter la dimension environnementale : plein d’auto-hébergements même optimisés ne consomment-ils pas plus de ressources (électricité mais également les composants du hard) qu’un data center bien conçu ?


  • Hello,

    C’est marrant, c’est à peu près les points que j’ai noté pour la présentation que je prépare :)

    Je confirme, le temps, surtout quand c’est pas notre métier à la base, c’est ce qui manque le plus, ou ce qu’on consomme le plus. Et ce, même si nombre de personnes défrichent et publient sur les sujets nécessaires, il faut quand même les lire.


  • Un certificat SSL coûte un peu d’argent, un certificat SSL wildcard si tu veux couvrir l’ensemble de tes services coûte bonbon. À prendre en compte dans les frais que tu décris car bientôt Google va pénaliser les sites qui ne sont pas en SSL.


  • > Un certificat SSL coûte un peu d’argent
    Il y a Let’s Encrypt qui est gratuit. On peut aussi regarder de ce côté là. ;-)


  • Je suis assez d’accord avec le fond de tes arguments concernant le problème de l’accessibilité et de la nécessité de sécurisation/bonne config. C’est en fait un double problème qui est lié à la structure de l’emploi (dans l’IT et ailleurs) et au manque d’instruction de base de la majeur partie de la population. (10 kind of people... etc... ).
    Néanmoins, les solutions comme labriqueinter.net et YUNOHOST (entre autre) sont là pour permettre justement à une catégorie de personnes de prendre en main l’hébergement d’une partie de leurs services et de ceux de leur entourage. Comme pour Framasoft, personne n’a l’illusion de remplacer la structure en place par une autre du jour au lendemain, et surtout, nous sommes très conscients de cette nécessité de l’entretien continu. C’est pourquoi par exemple à Neutrinet.be, on ne vend pas la brique par correspondance, et qu’on a un atelier mensuel pour s’entraider à configurer/débugger la bestiole... La question de la communauté autour est importante, et normalement une communauté de professionnels pourrait se structurer et offrir un support communautaire à des particulier/familles et des associations/pme, si tant est que le reste des valeurs du réseau social change également ! (et notamment que les gens acceptent un service "moins optimal" mais plus résilient et local, comme pour les légumes de l’AMAP... )
    Il ne faut pas oublier que les structures numériques sont un reflet/outil de nos réseaux réels de relations, la manière dont elles sont construites et gérées est aussi un choix (qui peut être de ne pas choisir et de se laisser berner)


  • Bonjour
    Ces arguments sont valables et ressortent toujours dès qu’on parle d’auto hébergement, c’est pour cela que l’initiative CHATONS de Framasoft est une bonne alternative intermédiaire :
    - Au lieu de devoir tout administrer soi-même ce sont des personnes un peu plus qualifiées/motivées/équipées qui s’en occupent
    - Au lieu de faire tourner le matériel chez soi avec les contraintes que cela impose, c’est physiquement hébergé ailleurs
    - Au lieu d’avoir toutes les données chez les gros GAFAM, elles sont chez plusieurs petites entitées éparpillées sur Internet
    - Le coût pour le service est modique voire nul :)

    Vive le décentralisé, qu’il soit auto hébergé ou multi hébergé :)

    Merci pour l’article


  • Il y a presque 20 ans, je dis pas... c’était pas simple. J’ai fais tourner mes premiers serveurs sous RedHat, à l’époque c’était HardCore. Aujourd’hui, un simple NAS synology fait tout ça en 3 clics de souris (j’exagère un peu, j’avoue). En 2016, l’auto-hébergement est devenu (beaucoup) plus simple que de passer le permis de conduire.


  • Bonjour à tous,
    En parlant de partage des connaissances, quelqu’un aurait-il l’amabilité d’expliquer à un gros noob comme moi pourquoi utiliser un raspberry pi, ou autre solution citée dans l’article, plutôt qu’une solution simple telle qu’un Nas Synology ?
    En effet, je ne vois pas (pour l’instant) les désavantages de ces Nas.
    (A part le prix, bien entendu)


  • @Jean :
    > Ne faut-il pas ajouter la dimension environnementale…

    Un data center consommera toujours plus d’électricité, car si on suppose que les ressources machines consommées en électricité sont égales à de l’auto-hébergement (ce qui est faux j’en ai la conviction…), le data center est obligatoirement climatisé, contrairement à ma maison qui n’en a pas besoin !
    Ce qui implique alors une dépense d’énergie double selon moi inutile et scandaleuse.

    Et puis… Si nous en sommes à parler d’électricité, l’idée n’est pas nouvelle, mais nous devrions en tant que client, pousser les FAI à intégrer des trucs comme Yunohost à leurs MachinBox…
    Imaginez alors l’intérêt environnemental : Les MachinBox sont quoiqu’il arrive toujours allumées (pour recevoir des coups de téléphone, etc) et largement assez puissante pour du serveur web/mail, par contre on pourrait éteindre tout le reste, serveur auto-hébergé à base de vieux PC gourmand en électricité, Data (frigo) center, et RaspberryPi poussif devenu inutile…

    Mais ça c’est du bon sens… et le bon sens, notre société n’en a plus beaucoup en action…


  • @zer0 : C’est un choix de chacun : soit tu veux un truc tout fait pour lequel tu n’a pas à te prendre la tête. Dans l’ensemble ça marche tout seul.
    Soit tu as envie de faire toi-même, d’apprendre et de maîtriser le fonctionnement. Tu risques d’y passer du temps avant d’avoir la joie de l’utiliser mais c’est gratifiant.
    Et ça continue avec la maintenance à faire soi-même au fil du temps (màj, contrôle des logs, vérification de la sécurité ..)

    Dans un NAS commercial (certains étant meilleurs que d’autres), tout ça est géré par l’entreprise donc tu dépends d’elle pour l’ajout d’une fonctionnalité, pour les correctifs de sécurité urgents (de l’autre coté tu dépends des dévs de la distribution).
    Ils ont aussi leurs failles de sécurité importantes, Syno en a fait les frais avec les ransomwares : Une faille sur Synology intéressera pas mal de black hats parce qu’il y a beaucoup de NAS (et pas mal d’utilisateurs non avertis)

    Lorsqu’il s’agit d’un NAS d’une grosse entreprise tu es plus à l’abri des fausses manips qui te feraient perdre tes données (mais ça arrive, j’ai un NAS d’une boite française et certains utilisateurs sont tombés dans le mauvais cas lors d’une mise à jour, ils ont perdu tout ce qui n’était pas sauvegardé ailleurs)

    Une panne matérielle sur un NAS fait maison coûte généralement moins cher que sur du commercial pour lequel il faut généralement racheter tout si ce n’est plus sous garantie

    Bref, je ne conseillerais pas le NAS fait maison pour tout le monde, il vaut mieux des appareils tout faits pour que l’autohébergement progresse plus vite.
    J’ai voulu tenter le NAS commercial il y a quelques années mais avec celu d’une boite peu connue (Ve-Hotech) pour ne pas avoir comme tout le monde, pour avoir mieux : Syno et Qnap à l’époque avaient pas mal de défauts ; La boite française avait un bien meilleur support technique (ils sont toujours bons) et semblaient vouloir écouter les besoins et remarques des clients.. Ça n’a pas duré

    J’en suis revenu, l’entreprise ajoute les fonctionnalités qui l’intéressent parce que ça va faire venir des clients, pas parce que ces clients actuels en ont envie/besoin. Il y a des features qui ont mis des plombes à sortir, d’autres pourtant basiques qu’on ne verra jamais. Ils manqu(ai)ent de moyens pour corriger les problèmes non urgents comme l’ergonomie..
    En plus ils sont déjà partis dans une autre optique pour se renouveler, on ne sait pas très bien ce que va devenir leur système..
    Bref, certains NAS sont peut-être très bien, mais quand on veut maîtriser plus(+) rien ne vaut le DIY, très formateur.
    (La comparaison avec la Raspberry Pi n’est peut-être pas la meilleure, parce qu’elle n’est pas faite pour faire un NAS, mais on se comprend sur le principe)


  • @Epy : Merci pour ces explications !
    L’acquisition n’étant pas urgente pour moi, je vais continuer de me renseigner pour savoir ce qui me convient le mieux. :)


  • @Makoto :
    Pour l’aspect environnemental et la climatisation, pas sûr que cela reste d’actualité :
    dans un contexte plutôt orienté calcul intensif (les supercalculateur à plusieurs millier de coeurs en infinyband avec une puissance cpu/gpu max, moins accès stockage, mais qui chauffe aussi à max), on sait déjà s’en passer. Par exemple, sur la machine Froggy du mesocentre de Grenoble : http://ecoinfo.cnrs.fr/article335.html

    Pour faire court, les machines acceptes des températures de fonctionnement plus élevées qu’avant et on peut utiliser des refroidissement à haut tiède, beaucoup plus écolo. Depuis quelques années, en parallèle du top500, le green500 a aussi fait son apparition.

    Alors, oui, j’imagine qu’un datacenter marche différemment qu’un supercomputer. Mais les problématiques sont déjà là : les cpus chauffe (encore plus sur les supercalculateurs où il tournent aux maximum de leur capacité) et les gros calculs manipulent déjà des données de plus giga (voire tera) qu’il faut écrire/lire rapidement et en parallèle. Donc un jour viendra ...

    Ce jour n’est pas encore là, mais n’oublions non plus de comparer ce qui est comparable : sur les datacenter, tu as du h24 avec redondances des données, pour avoir la même chose chez toi, il te faudrait au moins deux briques (sans parler que niveau sécurité, tu devrais avoir normalement une sauvegarde sur un autre site physique). Les solutions d’auto-hebergement n’en sont pas moins intéressante et peuvent sans-doute, pour certains user-cases, être déjà plus performante que certains datacenter vieillissant niveau techno.


  • @Makoto :
    Pour l’aspect environnemental et la climatisation, pas sûr que cela reste d’actualité :
    dans un contexte plutôt orienté calcul intensif (les supercalculateur à plusieurs millier de coeurs en infinyband avec une puissance cpu/gpu max, moins accès stockage, mais qui chauffe aussi à max), on sait déjà s’en passer. Par exemple, sur la machine Froggy du mesocentre de Grenoble : http://ecoinfo.cnrs.fr/article335.html

    Pour faire court, les machines acceptes des températures de fonctionnement plus élevées qu’avant et on peut utiliser des refroidissement à haut tiède, beaucoup plus écolo. Depuis quelques années, en parallèle du top500, le green500 a aussi fait son apparition.

    Alors, oui, j’imagine qu’un datacenter marche différemment qu’un supercomputer. Mais les problématiques sont déjà là : les cpus chauffe (encore plus sur les supercalculateurs où il tournent aux maximum de leur capacité) et les gros calculs manipulent déjà des données de plus giga (voire tera) qu’il faut écrire/lire rapidement et en parallèle. Donc un jour viendra ...

    Ce jour n’est pas encore là, mais n’oublions non plus de comparer ce qui est comparable : sur les datacenter, tu as du h24 avec redondances des données, pour avoir la même chose chez toi, il te faudrait au moins deux briques (sans parler que niveau sécurité, tu devrais avoir normalement une sauvegarde sur un autre site physique). Les solutions d’auto-hebergement n’en sont pas moins intéressante et peuvent sans-doute, pour certains user-cases, être déjà plus performante que certains datacenter vieillissant niveau techno.


  • Bonjour

    j’ai lu avec intérêt votre article qui pose bien les problèmes.
    Mais il manque à mon sens un point important : le plaisir. Je ne suis pas informaticien de profession,autodidacte avec de grosses lacunes, mais j’ai un serveur dédié HP micro serveur (avec 4 disque de 2To ) à domicile sous debian qui tourne comme un charme depuis des années.
    J’y héberge owncloud, mes flux rss, mon piwigo pour la famille et mes expérimentations ruby on rails (applis perso etc.). Mon owncloud est à la fois pour les fichiers perso et pro (dont la sauvegarde chiffrée de la base de donnée pro) et mon agenda perso, familial et pro. Ma fille a un compte sur l’owncloud pour son agenda et ses documents qu’elle partage avec ses copines, il y a un forum et un chat privé pour ses discussions avec ses amis.
    Même s’il va falloir passer à la prochaine version de debian, que les pannes de courant sont assez handicapantes, que la bande passante pour les photos en upload est un peu légère, et que j’ai des dizaines de tentatives de connexion de script kiddies coréen, chinois, russes et autres par jour, finalement j’en suis assez satisfait.
    Et je m’éclate, je passe pour un uber geek pour mes collègues. J’ai toujours un peu peur du gros plantage, voire du gros piratage mais je le vis bien (j’ai une sauvegarde des agendas et des photos sur un autre serveur, sur un site différent -au boulot- sous openbsd).

    Donc bien sûr on fait partie de l’élite mais au même titre qu’un gars qui fait sa dalle de béton, qui bricole sa voiture ou sa moto, qui monte sa cloison en plâtre et pose ses placos ou qui tricote ses pulls. Tout ce que je suis incapable de faire... C’est du "fait toi même" (DIY ?) plus que de l’élitisme.


  • Je suis revenu à Ubuntu (et Cyanogenmod sur téléphone) pour éviter les GAFAM, essayer de mieux protéger ma vie numérique. Et par la même occasion j’ai commencé à m’interesser à l’auto hébergement, notamment pour ne plus utiliser de google agenda, éviter dropbox et compagnie.

    Mais c’est vraiment du chinois pour moi pour le moment.
    Je sais qu’on peut faire un serveur en machine virtuel (je n’ai pas un autre ordi pour ce projet pour le moment) et je galère. J’ai regardé Owncloud, CozyCloud, NextCloud, Yunohost... et je rame sévère. Déjà que revenir à Ubuntu c’est pas facile (je suis resté sur Mac pendant 8ans), là j’ai vraiment l’impression de pas avoir le niveau. Aussi bien dans les lignes de commandes à comprendre, à recopier etc... J’ai rien réussis à faire fonctionner pour le moment.


  • Mais non c’est pas de l’élitisme juste de la motivation et de la passion. Je fais des serveurs depuis les ages d’AOL illimité en 56K.

    C’est pas compliqué de commencer par mapper un port d’installer Debian et de faire un apt-get install apache2 ou nginx... quand on est motivé apprendre sur le net ya rien de plus facile.


Un message, un commentaire ?
modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Ce formulaire accepte les raccourcis SPIP [->url] {{gras}} {italique} <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Conférences

Médiathèques vous recherchez un conférencier sur l’éducation populaire et l’hygiène numérique? Jetez un coup d’oeil à mon CV

Date des prochaines conférences?
Cliquer ici

Rechercher sur le blog

Liens

Logo Flattr Logo Gmail Logo Twitter
Logo RSS Logo Linkedin Logo GitHub
Logo Gitlab Logo Mastodon
Logo Diaspora

Soutenir ce blog?

Logo Tipee Logo Liberapay

Licence

Licence Creative Commons

Derniers articles

1.  City Hunter - L’OST de l’anime

2.  Logiciel de gestion des tâches - Task Coach

3.  Ubuntu - Unity - Afficher les heures de plusieurs zones géographiques

4.  Mes études

5.  Faire passer des entretiens - mes quelques questions subjectives

6.  Your name - Explication de la scène du crépuscule

7.  Un Meetup Yunohost ? Appel pour aider ce projet

8.  Kimi no na wa - Your Name

9.  Conférence Du pseudonymat au pseudonyme

10.  Yunohost - Pourquoi les ports 80 et 25 sont ils toujours utilisés ?


Date de mise à jour :

Le 15 décembre 2017