Jean-Pascal M.

La meilleure façon de ne pas avancer est de suivre une idée fixe (J. Prévert)

L’humanité fossilisée – le choc de sculptures (2/2)

Posted by Jean-Pascal sur 10 décembre 2017

Il serait intéressant de donner vie aux animaux modélisés dans l’article précédent. Ces animaux, dont les caractéristiques sont déterminées par les données de consommation et de production de ressources de différents pays, pourraient s’appeler des datarthropodes : une forme de vie animale obtenue par sélection… artificielle… de données.

Voici une version plus longue du film explicatif et comparatif entre différents datarthropodes, pays par pays.

Maintenant, pour matérialiser des fossiles sans attendre, il faut court-circuiter la nature, qui met des années à minéraliser des animaux. J’ai donc imprimé un datarthropode du monde par impression 3D, en 2 parties réunies ensuite pour voir une forme de plus de 20 cm de long.

J’ai ensuite réalisé un moulage silicone après avoir créé une enceinte en argile autour du modèle :

20171115_192143

Moulage silicone avec enceinte en argile

20171115_194225

Moule silicone

J’ai testé différentes matières et différents méthodes de moulage, avec pour objectif de produire des fossiles durs et résistants. Comme je me suis dit que le béton fin serait parfait pour cela, j’ai  testé celui de The French Viking, deux types super sympas et talentueux rencontrés à la Maker Faire 2017 de Paris. Il fournissent un béton très fin, solide, et pouvant être teinté dans la masse grâce à des pigments multicolores.

Il suffit de 24 heures au béton pour sécher et être prêt à démouler.

Le datarthropode de gauche est peint à la laque, celui de droite à la peinture acrylique.

Pour plus de photos, vous pouvez consulter ma galerie DatArtJP.

D’autres moulages vont suivre que je posterai probablement ici ou sur la galerie.

Mes autres articles sur le Design Génératif et le Data Art sont ici

 

 

Publicités

Posted in data art, Design, Design Génératif, DIY | Tagué: , | Leave a Comment »

L’humanité fossilisée – le choc des sculptures (1/2)

Posted by Jean-Pascal sur 31 octobre 2017

Empreinte de consommation

Je suis tombé récemment sur le site du Global Footprint Network qui fournit une source de données remarquable : la traduction de l’ensemble de nos activités humaines sous la forme d’un indicateur unique. Cet indicateur, nommé l’empreinte carbone de consommation, permet de se faire une idée de l’utilisation que nous faisons, pays par pays, depuis 1961, de nos ressources naturelles.

Par exemple, pour la France, cet indicateur permet d’établir la croissance de 1961 à nos jours (en rouge sur la courbe ci-dessous). Notre utilisation est traduite en équivalent d’hectares nécessaires à notre consommation (ou Global Hectar). Source.

GFN - France per capita

Sur la courbe, la croissance semble modérée, mais un deuxième indicateur permet de mettre l’empreinte de consommation en perspective. Il s’agit de l’empreinte de production, à savoir ce que le pays est capable de régénérer comme ressource tous les ans. Il s’agit sur le schéma de la courbe verte.

Là où le bas blesse, c’est que notre consommation est supérieure à notre production, depuis 50 ans au moins, soit grâce à l’utilisation de ressources non renouvelables, soit par l’importation. Nous sommes endettés !

Le choc des sculptures

Puisque nous parlons d’empreintes fossiles, pourquoi ne pas fabriquer des (faux) fossiles reprenant les caractéristiques de chacun des pays ? Les fossiles illustrent visuellement et intuitivement la mortalité des espèces.

Ces fossiles pourraient ressembler à des scolopendres, sans etre trop ressemblantes car ces bêtes carnassières m’effraient pathologiquement. Si vous arrivez à regarder cette page plus d’une minute, vous êtes bien plus courageux que moi.

Le principe :

  1. le diamètre du corps évolue d’après la consommation écologique du pays. Un anneau par année.
  2. si la consommation est supérieure à la production, des pattes apparaissent, d’autant plus longues qu’il y a surconsommation.
  3. la taille des mandibules est définie selon la consommation écologique par habitant. La taille des mandibules est aussi proportionnée à la taille de la tête.

Appliqué au monde, on obtient ceci :

NF60600

Et voici la représentation obtenue pour une vingtaine de pays, sous la forme de poster :

Humanité-fossilisée-HD

Mes autres articles sur le Design Génératif et le Data Art sont ici :

 

 

Posted in data art, Design Génératif, parametric design | 1 Comment »

« Gouttes de pollution » – Voir la pollution en peinture

Posted by Jean-Pascal sur 28 août 2017

Tenerife-Cycle0010.png

« Gouttes de pollution, Tenerife ». Santa Cruz, Tenerife, le 25 aout à 7 heures du matin. L’ile de Tenerife est réputée, d’après les agences de voyage, pour la transparence de son eau et la qualité de son air. La réalité est très différente au nord de l’île, dans la ville de Santa Cruz où se trouve la raffinerie de Pétrole de la Compañía Española de Petróleos S.A. Malgré les remontrances de la commission européenne pour la présence en grande quantité de métaux lourds et d’hydrocarbures toxiques, la population de Santa Cruz est tout simplement en danger depuis de nombreuses années. Score AQI : 776, Hazardous+. Source : Consejería de Educación, Universidades y Sostenibilidad – Gobierno de Canarias.

J’explore dans cette série « Gouttes de pollution » la possibilité de représenter la pollution des grandes villes sous la forme de tableaux abstraits, en imitant la technique de « dripping » inventée par Jackson Pollock. Cette démarche a l’intérêt de proposer une forme visuelle facilement perceptible de la pollution, quand celle-ci est généralement invisible (à part sous forme de brouillard). L’impression générale de densité, de saturation et de nervosité est proportionnelle à la pollution réelle des lieux représentés. Pour cela, j’utilise les informations mesurées par les stations du monde pour déterminer sous quelle forme et en quelle quantité de la peinture doit être projetée. Tous les traitements, de la récupération des données au calcul du rendu final, sont réalisés avec le logiciel Blender.

Comme le souligne l’OMS, la pollution de l’air est alarmante dans le monde, et inégalement répartie. Bien sûr, ce sont les habitants des grandes villes qui en souffrent le plus directement, mais les points de concentration de particules fines les plus remarquables sont en général autour des usines de production d’énergie ou de pétrole.

Voici ci-dessous une représentation de Paris, la ville la plus polluée de France, mais qui reste bien en dessous des seuils de danger la majorité du temps.

Paris.png

« Gouttes de pollution, Paris ». Ce 9 juin 2017 à 9h du matin, le taux de particules fines PM2.5 est quelque peu élevé : des personnes particulièrement sensibles comme des enfants asthmatiques pourraient être légèrement incommodées, mais la qualité de l’air est globalement considérée comme acceptable par les normes. Score AQI : 62, Moderate. Source AirParif – Association de surveillance de la qualité de l’air en Île-de-France. 

Les scientifiques observent que ce sont les villes les plus pauvres qui sont les plus polluées alors que les villes d’Europe de l’ouest s’en tirent bien. Une des raisons profondément inégalitaires est que nous importons des produits ayant pollué des centres de production situés hors d’Europe. Par exemple, la chine nous fournit nombre de nos produits manufacturés à partir de pétrole depuis ses usines, usines qui elles même consomment de l’électricité chinoise très carbonée (charbon).

EErduosi-Cycle0007.png

« Gouttes de pollution, Eerduosi ». Eerduosi (Ordos), situé en Chine, est une agglomération particulièrement riche en ressources naturelles. L’extraction du charbon, les traitements pétrochimiques, l’industrie textile et la production d’électricité permettent à Eerduosi (Ordos) de prospérer.  L’agglomération composée de plus d’un million d’habitants est extrêmement  exposée à la pollution de l’air, comme en cette fin d’après-midi ou le score en particules fines est au-delà des échelles d’évaluation. Toute la population est en risque immédiat. Ne faudrait-il pas évacuer en urgence ? Score AQI : 693, Hazardous+ (http://aqicn.org/city/eerduosi/).

Par contre nos agglomérations françaises moyennes bénéficient d’un air généralement sain.

Nantes-Cycle0004.png

« Gouttes de pollution, Nantes ». Nantes, France, le 25 aout à 10h du matin. Le niveau de pollution est faible, la qualité de l’air est satisfaisante, sans risque pour les habitants dont les enfants peuvent pratiquer du sport en extérieur. Score AQI : 25. Good. Source Air Pays de la Loire.

D’un autre côté, il est effarant de constater que les villes à l’air le plus nocif sont en Inde, au Pakistan ou au Nigéria. En France, nos concentrations en particules fines sont – au pire – 10 fois moindres, mais Paris reste en tête, bien devant des agglomérations plus petites comme Nantes.

Delhi-Cycle0010.png

« Gouttes de pollution, New Delhi ». Journée normale à New Delhi, pourtant les concentrations en particules PM2.5 (AQI : 135) sont très élevées.

Je tiens à remercier le World Air Quality Index (http://aqicn.org) qui fournit une API unique permettant de suivre en temps réel les relevés de pollution des stations du monde. Cet institut utilise une échelle standard de qualité de l’air, l’AQI (Air Quality Index), qui est basée sur la mesure de la concentration en particules fines PM10 et PM2.5, ainsi que sur les concentrations en CO, NO2, SO2 et O3. Un score allant de 0 à 500 est établi pour chacun de ces éléments, les valeurs supérieures à 100 étant problématiques. En particulier, les particules fines sont très régulièrement au-dessus des recommandations de l’OMS, notamment les particules inférieures à 2.5 nm qui peuvent pénétrer sans les poumons et même dans le flux sanguin.

Comment pouvons-nous représenter visuellement des concentrations de gazes nocifs et de particules fines quand l’un et l’autre sont transparents ? Je fais ici la proposition d’utiliser la technique dite de « dripping » développée par Jackson Pollock, technique qui consiste à faire goutter de la peinture sur une toile au sol, en veillant à conserver un mouvement naturel et à répartir globalement plusieurs couches de peintures de couleurs différentes. Cette notion de répartition, nommée « all over » est assez similaire avec le comportement des gazes et particules qui ont tendance à utiliser tout l’espace disponible.

J’ai utilisé les taux de particules pour décider du nombre de gouttes à projeter sur le tableau, et les concentrations en gaz pour les traits de peintures. Globalement, plus la toile est « chargée » d’éléments, plus la pollution est là.

Je n’ai pas pu représenter les villes les plus notoirement polluées, car les informations fournies pour ces villes sont trop lacunaires et ne me donnaient pas les 6 indicateurs que j’utilise. Par exemple, il n’y a pas de stations permanentes dans les villes africaines, alors que Aba, Kaduna ou Onitsha, toutes trois au Nigeria, sont 3 des 10 villes les plus polluées au monde.

J’ai donc choisi, un peu au hasard à l’exception de Paris et de Nantes, quelques villes aux valeurs remarquables ces derniers jours. Le site World Air Quality Index permet de naviguer en temps réel sur les pollutions de la planète. J’ai choisi des villes aux pollutions élevées (New Delhi, Shanghai) ou extrêmes (Eerduosi en Chine, Sderot en Israel, Santa Cruz de Tenerife en Espagne ou Monclova au Mexique). D’autres villes suivront certainement.

Shanghai_north-Cycle0005.png

« Gouttes de pollution, nord de Shanghai ». A Hongkou Liangcheng, au nord de Shanghai, en cet après-midi du 25 aout 2017, comme souvent la pollution est perçue de tous et gène immédiatement les plus sensibles. La santé des enfants est mise en danger principalement par les particules fines PM2.5 très présentes, qui pénètrent facilement leurs poumons. Score AQI : 151, Unhealthy. Source : Shanghai Environment Monitoring Center (上海市环境监测中心).

 

Sderot-Israel-Cycle0004.png

« Gouttes de pollution, Sderot ». Sderot, Israel. En ce matin du 25 aout, l’air est à nouveau saturé de particules PM10. Cela est peut être la conséquence de l’arrêt des stations d’épuration de la bande de Gaza faute d’électricité. En effet, les eaux très polluées de gaza arrivent sur les plages israéliennes qui ont dû être fermées en juin. Des pompes récupèrent l’eau polluée et la font transiter vers le centre d’épuration de Sderot qui tourne à plein. Au delà de la grave pollution de l’eau, les particules fines empoisonnent l’air de toute l’agglomération, dont la santé est gravement en danger. Score AQI : 663, Hazardous+. Source Israel Ministry of Environmental Protection.

 

Monclova-Mexico-Cycle0010.png

« Gouttes de pollution, Monclova ». L’air de Monclova, au Mexique, est totalement saturé de particules fines (PM10 et PM2.5) avec des concentrations largement supérieures aux limites supérieures des classifications. L’air est également rempli d’ozone, d’ammoniaque, de méthanol et d’acide formique ! L’origine principale est connue, il s’agit de la centrale au charbon de 2600 Mégawatts, mais aussi l’agriculture sur brûlis. Le vent qui souffle du sud pousse la pollution en direction du Texas. La visibilité du Big Bend National Park est diminuée jusqu’à 60% ! Pourtant le Mexique souhaite continuer de développer l’énergie charbon car sa capacité de production d’électricité est encore faible. Score AQI : 869, Hazardous+. Source : INECC – Instituto Nacional de Ecologua y Cambio Climatico.

 

Pour aller plus loin :

Mes autres articles sur le Design Génératif et le Data Art sont ici

Posted in data art, Design Génératif | Tagué: , , , , , , | Leave a Comment »

Data Art (3/3) – Information, interprétation, représentation

Posted by Jean-Pascal sur 14 mai 2017

Dans cette troisième partie, je présente tous les éléments pour réaliser du Weather Art. Le code source est téléchargeable à la fin de l’article. Le résultat est visible en ligne.

1/ Information : obtenir des informations météorologiques en temps réel.

Il existe de nombreux services fournissant des informations à jour via des API gratuites. Wikipedia en dresse une liste (très) partielle. Pour cette première expérience, je me suis appuyé sur l’API d’Open Weather Map,simple et gratuite. Les données sont riches et il est même possible d’accéder à des informations de pollution (CO, O3, SO2, NO2).

Open Weather Map impose de s’inscrire pour obtenir une clef. Ensuite, l’appel à une URL comme celle qui suit suffit à faire une requête pour la météo à Paris.

http://api.openweathermap.org/data/2.5/weather?q=Paris,FR&APPID={code API ici}

Les données sont obtenues par un appel à une URL et un JSON est retourné immédiatement. Des exemples parlants sont proposés dans la documentation. Le résultat est très immédiatement parlant. Voici un exemple à Paris :

{
  "coord":
     {"lon":2.35,"lat":48.85},
  "weather":[
     {"id":800,"main":"Clear","description":"clear sky","icon":"01d"}
   ], 
   "base":"stations",
   "main":
     {"temp":279.81,"pressure":1006,"humidity":70,
     "temp_min":279.15,"temp_max":280.15},
   "visibility":10000,
   "wind":{"speed":2.6,"deg":160},
   "clouds":{"all":0},
   "dt":1488524400,
   "sys":
     {"type":1,
     "id":5615,
     "message":0.0104,
     "country":"FR",
     "sunrise":1488522466,"sunset":1488562671
   },
   "id":2988507,
   "name":"Paris",
   "cod":200
}

2/ Représentation

J’aime beaucoup les formes générées grâce à du bruit Perlin. Des nombreux exemples « classiques » en design génératif utilisent cette fonction mathématique, pour produire des espaces 2D ou 3D plutôt naturels.

Voici deux exemples tirés du site http://genekogan.com/code/p5js-perlin-noise/

L’idée est de faire se déplacer des particules sur un espace 2D réalisé en bruit Perlin. Voici ce que l’on peut obtenir (exemple également tiré du site de genekogan) après quelques secondes de déplacement des particules. Le résultat est juste beau !

Daniel Schiffman, dans son émission Youtube « the coding train » explique tout ce qu’il est bon de savoir sur le principe d’utiliser des centaines de particules se déplaçant dans un champ Perlin.

3/ Interprétation

Revenons au schéma précédent, mis à jour avec les éléments connus.

DataArt3

Je vous propose quelques règles simples de transformation des données en particules :

  • La température => la couleur, températures chaudes = couleurs chaudes, températures basses = couleurs froides.
  • L’humidité => lorsque l’humidité augmente, la trainée des particule se réduit, comme si l’eau lavait le dessin.
  • la pression atmosphérique => la dynamique globale, une pression faible entrainant plus de facilité dans les mouvements, dans les angles de rotation.
  • Le vent => les particules sont influencées par le vent, en direction et en vitesse.
  • La pollution => la taille des particules augmente avec la pollution. De plus, le fond rougeoie.

Voici ce que l’on obtient sur la base de ces principes. Les informations nécessaires à la production de chaque image sont en haut à gauche.

WA1WA2WA3WA4WA5WA7WA6

Vous pouvez télécharger le code P5.js complet.

Pour la suite, je crois que je vais me lancer dans la réalisation d’une sculpture en 3D. Pour se mettre l’eau à la bouche, de nombreux exemples ici : http://dataphys.org/list/tag/3d-printing/

Autres parties de cet article :

Mais aussi :

 

Posted in Design Génératif | 5 Comments »

Data Art (2/3) – De la data visualization au data art

Posted by Jean-Pascal sur 5 mai 2017

 

WA3Cliquez sur l’image pour voir la météo à Paris

« Data is the new soil » – David McCandless

Je suis convaincu de l’utilité de mettre en forme, de façon esthétique, une grande quantité de données, telle qu’on peut le voir en datavisualisation. On trouve facilement des argumentations détaillées comme celle de Hans Rosling dans son Ted « The best stats you’ve ever seen« . Hans Rosling présente des outils de visualisations qui permettent de comprendre le monde (mieux que ne le feraient des singes !), grâce à la mise en relation de nombreuses sources de données, pour l’ONU.

La logique de la dataviz est simple : à partir d’informations, un algorithme propose une interprétation de ces données brutes pour les rendre signifiantes du point de vue de l’analyste. Ensuite, un second algorithme produit une mise en forme imagée qui vise à rendre les données plus simples à comprendre, à appréhender, à comparer, à qualifier, pour un public donné.

DataArt1

La DataViz et le Data Art suivent le principe du schéma ci-dessus, mais leurs objectifs diffèrent. Le premier vise à rendre intelligible, quantitativement et qualitativement, l’information, de manière à objectiver l’information pertinente. A contrario, le second recherche le plaisir de la mise en scène, quitte à déformer l’information, à la subjectiver, à l’esthétiser, de manière assumée, de façon personnelle.

Dans l’exemple qui suit, j’ai choisi d’exploiter des informations fournies en temps réel, telles que des données météorologiques. Ces données météorologiques seront mises en scène sous des formes originales , toujours en mouvement.

DataArt2

Si l’on se concentre sur le point de départ et celui d’arrivée, voici ce que je voudrais faire. Passer de données temps réel fournies par un service en ligne à un dessin 2D :

DataArt4

Je me suis imposé plusieurs objectifs pour ce projet :

  • travailler avec des informations live.
  • créer des animations en évolution constante.
  • pouvoir diffuser facilement le résultat.
  • obtenir un résultat rapidement, sans y consacrer tout mon temps libre !

Initialement, je voulais le faire avec Blender, en utilisant des scripts Python, mais ne je voyais pas comment diffuser le résultat en temps réel. Heureusement, il existe une version de Processing pouvant être exécutée dans nos bons vieux navigateurs web : P5.js ! 

Les exemples de réalisation en P5.js sont très convaincants. Le code est toujours court, et la pédagogie qui accompagne Processing et P5.js est fantastique. Merci au contributeurs, et à ceux qui inspirent comme Daniel Schiffman !

Pour conclure, dans la catégorie de la plateforme technique de data art la plus simple, les gagnants sont P5.js et JSON. Bravo.

La suite dans un prochain article !

Pour aller plus loin :

 

Posted in Design Génératif | 5 Comments »

Data Art (partie 1/3) : Open Data + Design Génératif

Posted by Jean-Pascal sur 20 mars 2017

weatherart12

Exemple de météo parisienne, avec un temps qui se refroidit, pas de pollution détectée peu de vent et une pression assez basse.  

We can’t make meaning out of enormous statistics […] We need visual langage so data can be felt. – Chris Jordan.

Je présente dans cet article une réalisation simple de Data Art. Cette réalisation sera expliquée en détail dans les articles suivants (Data Art, parties 2 et 3). Le résultat (visible ici) est construit à partir de données météo obtenues en temps réel, et mises en forme automatiquement, pour produire ce qu’on pourrait appeler du « Weather Art ». L’objectif est de proposer une peinture originale dépendant des conditions climatiques et évoluant dynamiquement selon ces conditions climatiques. La peinture change selon le tracé généré par des centaines de particules dont les mouvements ressemblent à des grains de poussières flottants au gré du vent.

WA3

Cliquez sur l’image pour voir la météo à Paris

De nombreux raccourcis sont proposés :

  • Barre d’espace pour afficher les informations météo/pollution
  • touche « V » pour voir les vecteurs du champ de force
  • touches 1 à 6 pour lancer des scénarios de test
  • touches 7 à 0 pour changer les conditions de pollution.

Voici des exemples de rendus possibles :

Les particules changent de couleur ou de forme selon la température, l’humidité ou le taux de pollution aux particules fines. Le mouvement des particules dépend de la température, de l’humidité, de la pollution, de la pression atmosphérique et du vent.

Le data art, un mouvement ?

J’ai fait un tour du côté de Wikipedia sans trouver d’article sur le data art. Voici le résultat, quelque peu absurde, de cette recherche. Le noeud Data Art est isolé à droite.

Data-Art

De nombreux artistes ont déjà exploré cette voie, et j’apprécie particulièrement le travail de Nathalie Miebach dont la démarche est autant artistique qu’artisanale. Elle produit des sculptures physique à partir de mesures réalisées par ses soins !

 

D’autres exemples sont présentés par Manuel Lima qui présente les mérites de ce qu’il nomme « Networkism », un mouvement artistique mettant en forme des graphes.

Plus digital, on peut admirer le travail de Refik Anadol présentant les vents de Boston sous la form de Data Painting :

Pour aller plus loin :

Posted in Design Génératif | Tagué: , , , , , , | 5 Comments »

Générateur de peintures abstraites à la façon de J. Pollock

Posted by Jean-Pascal sur 8 janvier 2017

56-212122-jackson-pollock-1

Jackson Pollock One (number 31, 1950)

Jackson Pollock fut des tous premiers peintres expressionnistes à être reconnu par les critiques de son époque. Plusieurs facteurs sont à l’origine de cette reconnaissance, dont sa technique originale produisant de grandes œuvres abstraites en projetant de la peinture sur une toile posée au sol. Cette méthode, nommé dripping, est expliquée dans la vidéo qui suit :

Pour vous faire une idée par vous même, vous pouvez vous amuser à « dripper » avec ce simulateur en ligne.

Autre élément caractéristique, Jackson Pollock prenait soin de répartir ses traits sur l’ensemble de la toile, sans pour autant s’appuyer sur des répétitions. Ce second principe, nommé « all-over« , a été étudié de toutes parts, et plusieurs analystes défendent l’idée que cette disposition est fractale. En effet, si l’on cadrille une toile de sa période allant de 1947 à 1950, on constate une répartition homogène des couleurs sur chacune des cases.

J. Pollock réalisait ses œuvres assez vite, privilégiant le geste, la dynamique, au résultat. Il pourrait s’être inspiré sur ce point des méthodes de calligraphie des maîtres chinois, ou des méthodes des Indiens d’Amérique qui peignaient sur le sable, comme le suggère dans Histoire de l’Art E.H. Gombrich. Cette attitude, nommée action painting, est très en phase avec les principes du design génératif, qui se focalise sur la méthodologie.

Générer des milliers d’œuvres automatiquement

La transition est toute trouvée pour proposer un générateur d’œuvres inspirées du style de Pollock. Il s’agit bien sur d’un essai ne prétendant pas produire des imitations fidèles (hélas, une peinture originale dépassant en général le million de dollar !).

Comme précédemment, j’utilise le tandem Blender/Sverchok. Premièrement, afin de respecter le principe du all-over, je propose de tirer des points au hasard

Voici ce que l’on obtient lorsqu’on tire au hasard des points (en rouge) et qu’on en déduit une courbe (une spline, en noir). Pour obtenir simplement cette courbe, j’ai utilisé un composant en version alpha, le Polyline Viewer.

capturepollock1

Afin de donner l’illusion qu’il y a plusieurs traits, j’ai ajouté une valeur de profondeur et  un plan pour cacher les sections du trait qui sont trop éloignées. Le trait passe devant alternativement devant et derrière le plan. Le trait est également épaissi, et un peu de hasard est ajouté sur chacun des point :

capturepollock2

Voici le schéma Sverchok, avec un peu de « tambouille » pour améliorer la répartition des traits sur l’ensemble de l’espace. capturepollock3

En multipliant ce principe par le nombre de couleurs, on obtient ce type de résultats :

0008

En ajoutant de l’aléatoire partout où c’est possible (nombre de points, position des points, couleur des peintures…), il est possible de générer des milliers d’images automatiquement !

Evidemment, on est loin du résultat. Les traits sont mal répartis, les courbes sont trop amples. Et, plus grave, Jackson Pollock ne partait pas d’une distribution aléatoire ! Tout d’abord, l’esprit humain est bien en peine pour produire du véritable hasard et Jackson Pollock avait sa logique et jouait avec des formes plus figuratives mais dissimulées.

Pour la suite, deux pistes intéressantes pourraient être étudiées :

  1. Blender propose des fonctionnalité de dynamic painting permettant d’utiliser des formes pour peindre sur des surfaces. Une option nommée judicieusement drip permet de simuler des caractéristiques physique du fluide.
  2. Utiliser le simulateur physique de Blender pour effectivement projeter de la peinture sur une toile virtuelle ! Cela permettrait de bien mieux représenter les éclaboussures et rendrait plus fidèlement l’effet du dripping. 

En écrivant cet article, j’ai découvert que Zeffii, un des développeurs de Sverchok, avait également fait une tentative mais les explications qu’il donne sur sa méthode ne m’ont pas éclairé. Voici ce qu’il obtient :

A bientôt !

Quelques liens pour finir  :

Posted in Design Génératif, parametric design | 3 Comments »

Perfume Danse, 1er film VR

Posted by Jean-Pascal sur 1 décembre 2016

« Perceiving space according to the sense of smell … and make a match. » Adaptation pour la réalité virtuelle du film d’animation « Perfume Lifeform »

Parametric Design, Sound Design, ASMR : Jean-Pascal Martin
Réalisation : Jean-Pascal Martin (https://twitter.com/jean_digital)
Conçu grâce à Blender & Sverchok
Motion tracking : Perfume (http://www.perfume-global.com/)

Pour une consultation optimale, je recommande fortement de télécharger le fichier 4K  et de le consulter sur un casque de réalité virtuelle.  https://dl.dropboxusercontent.com/u/6713550/wordpress/Perfume%20Danse%20VR.avi

 

Posted in Composition musicale, Design, Design Génératif, parametric design, Video, Video 360 | Tagué: , , , , | Leave a Comment »

Générateur d’iris, à l’infini !

Posted by Jean-Pascal sur 26 novembre 2016

Les iris ont des formes et des couleurs exceptionnellement diverses, c’est bien connu. Toutefois,  c’est le film « I Origins » de Mike Cahill qui m’en a donné plus pleinement conscience. Les plans d’iris se succèdent et le sentiment de fascination se renforce… à tel point que l’on se demande comment une telle diversité est possible ! L’iris est également utilisé dans le film fascinant « Under the skin » de Jonathan Glazer, afin de montrer la naissance du personnage joué par Scarlett Johansson.

C’est là que le design génératif intervient :). J’ai tenté de reproduire un peu de cette diversité et, bien que j’y ai passé un certain temps, je suis infiniment loin d’un résultat crédible. Je pense qu’il s’agit de la version zéro et que c’est un travail sur lequel je reviendrais plus tard. Il me manque à la fois des connaissances en anatomie et surtout des outils. Voici quelques exemples sélectionnés parmi 250 iris produits.

Montages.jpg

Ces iris ont été produits sous Blender via l’extension Sverchok. Vous pouvez télécharger le fichier blender et le tester chez vous. Il suffit de lancer le rendu de l’animation pour obtenir 250 iris en 1080×1080.

Chaque iris est composé d’une pupille, noire, au centre, d’un fond d’iris, d’une zone intérieure d’iris et d’un réseau de veines.

1-1-eye0001eye0192

Télécharger le générateur d’iris pour blender / sverchok.

Le projet est sous blender 2.78. N’oubliez pas d’installer l’extension Sverchok.

J’aimerai conclure en mentionnant l’étrange film « Under the skin« . Dans cet ovni cinématographique,  Jonathan Glazer utilise l’iris pour montrer la naissance du personnage joué par Scarlett Johansson, peut être pour montrer l’apparition d’une certaine forme de conscience.

N’hésitez pas à consulter mes autres articles sur le Generative Design et à bientôt.

 

 

Posted in Design, Design Génératif, parametric design | Tagué: , , , | Leave a Comment »

Filmer en 360° – 30 conseils pour grands débutants – Samsung Gear 360

Posted by Jean-Pascal sur 7 novembre 2016

L’arrivée récente sur le marché de caméras 360° m’a permis de tester la Samsung Gear 360. J’ai voulu faire un article simple sur l’utilisation d’une telle caméra, car j’ai trouvé l’objet autant intéressant que déroutant : Intéressant par les possibilités nouvelles, déroutant par la liste sans fin de questions que la vidéo 360 pose.

Je ne vais pas détailler les caractéristiques techniques de la Samsung Gear 360. Ces informations sont disponibles partout, à l’excès, nombre d’articles insistant sur l’innovation technologique que ces caméra représentent, sans expliquer comment le format 360° s’inscrit en rupture de la vidéo conventionnelle. Si vous achetez une caméra 360, la question principale ne sera pas « combien de pixels ? » mais « que faire d’intéressant ?« . J’ai aussi testé la Ricoh Theta S qui a une résolution moindre, mais qui est plus ouverte et plus simple d’utilisation. De ce point de vue, je recommande plutôt la Ricoh à la Samsung.

Quels scénarios pour un film 360 ?

Je ne vais pas non plus aborder la question – pourtant essentielle – du scénario. C’est une question à part entière puisque de nombreux professionnels soulignent que la vidéo 360 (ou les formats en réalité virtuelle) remet tout en question, qu’il faut repartir de zéro. Steven Spielberg considère même que la VR est dangereuse pour les réalisateurs de films, car elle donne au spectateur la liberté de regarder où il le souhaite. Il est vrai que presque tous les métiers de la chaîne de production hollywoodienne sont à repenser…

J’ai l’impression que le 360° est particulièrement adapté à la narration documentaire où il s’agit de montrer avec force et authenticité des situations réelles. La programmation des cinéma OMNIMAX (comme à la Géode) est éloquente sur ce point : essentiellement des documentaires filmés à 180°… De même, les films documentaires 360° réalisés par NY Time sont largement reconnus. Une des caractéristiques intéressantes des documentaires est qu’ils font largement appel à une voix off, ce qui a pour effet de guider très fortement la narration. Je pense que la voix off est une réponse efficace au problème posé par Spielberg.

Plus globalement, la caméra 360° nous amène ailleurs, nous téléporte, nous permet d’adopter non pas un point de vue mais une position physique distante. Si l’on prend l’exemple du film Henry, la situation où ce dernier casse le quatrième écran en nous regardant est profondément troublante : nous avons immédiatement l’impression d’exister dans la scène, et nous passons du statut de spectateur à celui de voyeur repéré ! En 360°, l’incarnation est très forte et la sensation d’une liberté nouvelle – choisir où poser le regard – amuse et rend interactive l’expérience. Puis vient l’envie de se déplacer et… la frustration revient, plus forte que dans un film classique. Vous pouvez regarder le spin off de 6′ du Bureau des Légendes pour vous faire une idée de ce paradoxe. Autre exemple : le film Hardcore Henry, bien que n’étant pas en 360° (Je me demande pourquoi), est entièrement filmé à la première personne avec des GoPro placées au niveau du nez de l’acteur. L’immersion est forte, et la tentation d’interagir est là, par exemple en répondant dans les phases de dialogue, mais les scénaristes ont tout prévu : le héro (vous) est muet (mais vraiment pas manchot) !

Une caméra filmant à 360 ° ???

La Samsung Gear 360 peut filmer dans tous les directions sans avoir à l’orienter, car elle est composée d’une caméra avant et d’une caméra arrière, l’une et l’autre filmant à 180°. Ces deux images peuvent être assemblées (« stiched ») pour en produire une plus grande permettant de voir dans toutes les directions (de la gauche vers la droite comme du bas vers le haut). La Gear sait reconstruire une image 360°, ou sphérique, automatiquement.

A quoi ressemble une photo prise avec cette caméra ? C’est très simple, il s’agit d’une image normale (un .jpg) dont l’image d’origine a été « aplatie », suivant le même procédé qui consiste à réaliser une planisphère. La projection (l’aplatissement) la plus courante est celle de Mercator. Souvenez-vous les cartes d’antan :

La projection pour une photo prise avec la Gear 360 est très semblable. La déformation est la même : les angles sont conservés, mais pas les surfaces, ni l’aspect rectiligne des droites. Un exemple éloquent à la Défense :

SAMSUNG

Image monoscopique sphérique

Une autre projection est couramment utilisée, dite équilatérale :

Image 360 à projection équilatérale. Source GoProVR.

Des images monoscopiques ou stéréoscopiques ?

Attention, même si cela ressemble à des jumelles telles que montrées dans les séries Z, chaque boule représente la moitié du champs de vision, et non chaque œil. Le résultat est dit monoscopique, chaque œil voit la même image, il n’y a pas de profondeur, tout est sur le même plan.

Le tournage en stéréoscopie nécessite un équipement plus important. Google fournit des exemples et des outils sur sa plateforme Jump. Les images sont un collage entre l’image dédiée à chaque œil (la moitiée haute de l’image est pour l’oeil gauche) :

Revenons à la Samsung Gear qui peut prendre jusqu’à 30 images par seconde pour produire un film quasiment en 4K. Les images de film sont identiques aux images monoscopiques sphériques ci-dessus. Les caractéristiques techniques de la Samsumg gear 360 (voir les reviews pour un point de vue plus critique) sont intéressantes rapportées à sa taille, mais il ne faut pas oublier que le champ de vision ne voit qu’une partie de l’image, ce qui fait considérablement baisser a résolution de l’image perçue. De ce fait, la résolution de l’image source est très importante.

Et le son à 360° ?

Les caractéristiques audio ne sont pas mises en avant par Samsung. J’ai l’impression que la prise son est monophonique, et donc que le son ne s’adaptera pas aux mouvements de la tête du spectateur. Comme une bonne gestion du son est essentielle pour une bonne immersion, ne vous attendez pas à un résultat parfait sur le plan sonore. Idéalement la prise doit être quadriphonique pour permettre de reconstituer un son stéréo dynamiquement. Je n’ai pas essayé, mais Youtube soutient un format, AmbiX, pour l’audio en VR.

Passons à l’action avec une Samsung Gear 360.

Où poser la camera ?

Comme précisé en introduction, point de débat sur le scénario ici, mais des questions pratiques. Où poser la camera ? Par exemple, pour un mariage, faut il se mettre entre les mariés au moment des vœux ? N’est-ce pas un peu bizarre, dérangeant, ou intriguant ? La tentation est importante de mettre la caméra au centre de l’action, mais le risque d’avoir une situation irréelle est bien là.

Par contre, filmer du sport ou un concert semble une bonne idée, en utilisant la position d’un spectateur pour la caméra. Cette position permet de filmer à la fois l’action et un public chauffé à blanc. L’immersion est assurée.

Pour le cadre :

  • Il ne sert à rien de cadrer, puisque tout est filmé, mais attention au raccord de stitching. Il vaut mieux que le sujet principal soit dans l’axe de la caméra avant.
  • pour éviter d’être sur toutes les photos en gros plan (mode selfie obligatoire), éloigner l’appareil avec une perche. Pour être le moins visible possible, mettre la perche au dessus de la tête, la caméra au plus haut.
  • En public, on risque de vous regarder bizarrement, ce qui se verra sur l’image, donc il faut toujours faire comme si on filmait de l’autre côté, en restant naturel 😉
  • Un pied est idéal pour poser la caméra à hauteur d’œil, de plus le pied sera presque invisible.
  • Pour un résultat parfait, utiliser le déclenchement à distance de la photo, via l’application smartphone. En profiter pour se cacher, mais attention, il faut vraiment bien se cacher, il y a souvent des cheveux ou un pied qui dépasse.
  • Il vaut mieux maintenir le plan d’horizon… horizontal 😉. Conseil trivial mais filmer avec une boule donne des idées saugrenues.
  • c’est du très grand angle, il ne faut ni être trop prêt ni trop loin. Un peu d’expérience, et en vérifiant le cadrage avec le smartphone devrait aider.
  • Attention lors des changements de plan à ne pas trop changer l’échelle, car cela donne au spectateur l’impression de changer de taille.

Préparer la scène :

  • Que de contraintes ! pas d’équipe technique visible, pas de catering, pas de lumières artificielles, pas de décor composé d’un seul pan… bref, plus le dispositif est simple meilleur est le résultat. Cela me fait penser aux règles du Dogme95 qui, en retirant des principes habituels de trucage du cinéma anglo-saxon, revient à la expressivité emprunte de sincérité. Donc, équipe technique réduite au minimum !
  • bref, il faut se planquer, même les réalisateurs, cadreurs, preneurs de son, chef op… doivent être invisibles (dans la pièce à côté, derrière un élément naturel)
  • Soigner les décors visibles qui sont en dehors du champ de l’action : les décors doivent être omnidirectionnels.

Lorsqu’on filme :

  • encore une fois, pas besoin de cadrer, mais attention au plan d’horizon, au raccord de stitching et à la distance entre le sujet et la caméra.
  • il ne sert à rien d’orienter la camera pour suivre le sujet.
  • Pire, orienter la caméra donne fortement la nausée à qui regarde le film avec un casque de VR. Laisser le spectateur gérer l’orientation.
  • les déplacements, surtout de travers (lorsqu’on va dans une direction mais qu’on regarde dans une autre), sont inconfortables.
  • Pas d’accélération, ce sont elles qui donnent le plus le mal de cœur.
  • Si des déplacements sont nécessaires, il existe une astuce basée sur « l’effet cockpit » : L’effet de perte de repère est fortement diminué s’il y a des repères fixes au premier plan. Par exemple, lorsque la caméra est placée dans un casque moto, dans une voiture qui roule à condition qu’on voit l’intérieur, ou dans le cockpit d’un avion si vous en avez un. Je recommande le magnifique article de Daniel Allen pour son film Life Of Lon.
  • Finalement, peut être vaut il mieux n’utiliser que des plans fixes, les changements de position se feront au montage, avec des « cuts » ou des fondus.
  • il ne faut pas mettre la caméra au centre de l’action, mais plutôt à un endroit où un observateur humain pourrait être. C’est plus naturel même si vous aurez l’impression d’être un fantôme.
  • Par exemple, pour filmer un dialogue, oubliez les champ contrechamp, placez la caméra selon un triangle équilatéral :schema_position_camera_360
  • Les vidéos sont stockées sur la caméra et prennent de la place : en 4K 360,=> 500 Mo/minute. 64 Go sont vites utiles.
  • Pour consulter une séquence venant d’être filmée, le plan est copié sur le téléphone par l’application de Samsung. Dans ce cas, attention à la place prise sur le téléphone, d’autant que les médias sont stockés sur la mémoire interne.

Et le montage :

  • Samsung fournit un logiciel de montage, assez lourd, nécessitant une très grosse bécane : Samsung Gear Action Direction 360.
  • Les logiciels professionnels permettent de monter à partir de film 360°, mais finalement, il est aussi possible de réaliser un montage avec un logiciel classique. Il suffit de travailler avec des images en projection sphérique ou équilatéral, mais c’est tout à fait possible.
  • Pourquoi ne pas utiliser Blender, qui est gratuit et sait gérer tous les cas de figure (format de compression, d’image, de projection), ou Kolor Eye, également gratuit et adapté.
  • privilégiez les plans longs au montage rapide et nerveux. Il faut un temps important pour le spectateur pour comprendre où il est à chaque changement de plan.
  • Et le générique, je le met où ? Certains préconisent de ne pas le mettre au centre immédiat du champ de vision, pour inciter dès le début le spectateur à tourner la tête. Un petit peu à gauche, disons, puis un peu à droite, puis en haut… c’est aussi un jeu pour le spectateur.
  • Si narration il y a, pourquoi ne pas utiliser une voix-off pour guider le spectateur ?

Comment diffuser ?

Une question à se poser avant de commencer à filmer est « comment la vidéo sera-t-elle diffusée ? »

Pour consulter une photo ou un film 360°, il faut donc un dispositif spécial. Il y a plusieurs options :

  • Utiliser un casque de réalité virtuelle qui sera à même de présenter les images correctement, notamment en présentant la zone de l’image qui correspond à l’orientation du spectateur. Pour ma part j’utilise soit un google cardboard ou – mieux – un Samsung Gear VR.
  • Utiliser un smartphone et une application dédiée. La zone affichée sur l’écran est une partie de l’image d’origine déterminée par l’orientation du smartphone. Il est aussi possible d’utiliser le doigt pour faire pivoter l’image. Google appelle cela une « magic window »… ce qui – je trouve – déprécie ainsi la technologie qui est derrière ainsi que l’intelligence de l’utilisateur.
  • Dans un navigateur web, restreindre l’affichage à une section de l’image et permettre au spectateur d’orienter à la main la zone observée. Il s’agit de la solution utilisée par Youtube lorsqu’une vidéo 360 est consultée depuis un PC. Des exemples sont visibles sur la chaine Youtube dédiée.
  • Utiliser un dôme géodésique. L’image projetée est à 180° uniquement. L’avantage est qu’il est possible de regarder le film à plusieurs, sans dispositif à manipuler. C’est une vielle idée, à la base de l’IMAX ou du cinérama. Les solutions actuelles sont très au point. Voir par exemple igloovision ou pacific dome.

A l’exception du dôme géodésique, ces solutions sont très accessibles.

Youtube peut le faire

Le plus simple dans un premier temps est d’uploader la vidéo sur Youtube. Youtube fournit un logiciel permettant d’ajouter à votre fichier vidéo final des informations (métadonnées) précisant si la vidéo est sphérique, si elle est stéréoscopique, et si le son est spatialisé. Il s’agit de Spatial Media Medatada Injector. Je vous renvoie vers la documentation de Youtube sur ce point, mais c’est très simple et fonctionne parfaitement.

sans-titre

N’oubliez pas d’informer votre réseau que votre première vidéo 360 est en ligne !

Conclusion

Cet article fut plus long que prévu, alors qu’il est désespérément incomplet. Je pense approfondir certaines sections par la suite, par exemple sur l’audio 3D. Et comme toujours, la liste de questions s’allonge avec le temps, alors n’hésitez pas à m’envoyer les vôtres en commentaire.

Pour aller plus loin :

Posted in Video, Video 360 | Tagué: , , | 1 Comment »