Aller au contenu

Intelligence artificielle


Messages recommandés

Posté

Dans les commentaires il détaille comment il a fait ce petit film :
 

Citation

 

A step-by-step guide for those who are interested:

  • I wrote the script based on an idea I had for some time and identified all characters, locations, and any characters requiring aging.

  • I generated character faces and locations using:

    • Dreamina for detailed locations and props.

    • MidJourney for unique faces.

    • ChatGPT to maintain character consistency and optimize prompts with time-appropriate props (e.g., 1960s clothing and objects).

  • I used Sora to generate reference images for each character from multiple angles: front, left, and right profiles, plus full-body shots from each side. I also generated location images from different angles.

  • I labeled all reference images in Photoshop with character names and locations. This helped guide Sora when generating scenes with multiple characters. For example, I uploaded labeled images and used prompts like: “Frank and Lena looking at each other, wide angle shot. She is smiling at him.” The images have labels on them, and Sora understands which character is which based on these labels.

  • I created character voices and dialogues using ElevenLabs, training it for unique voices matching each character and time period. I adjusted settings until each voice felt right and generated all dialogues directly without post-processing.

  • I synced dialogues using Dreemina’s Master option for better lip-sync results. I added 2-3 seconds of silence before and after each line for natural reactions (Dreamina generates a reaction when there is silence) and synced voices from different angles to allow smooth scene cuts.

  • I filled visual gaps with B-roll footage generated using KlingAI, using images generated with ChatGPT, Midjourney and Dreamina.

  • I created sound effects using MMAudio (by uploading the video and providing prompts. This tool uses the video as a guide to generate a well-synced sound effect) and ElevenLabs for additional effects.

  • I generated background music for all scenes using SunoAI v4.5, consulting ChatGPT to select time-appropriate instruments and styles. For the final song, I co-wrote the lyrics with ChatGPT based on the script, then produced the final version with Suno AI 4.5. Basically, I fed ChatGPT the script and used it to help me write a proper song that captures Frank's story. After a series of attempts, I finally got the proper lyrics that became the final song.

  • I assembled everything—scenes, dialogues, music, sound effects, and lip-sync— then applied VHS effects in Adobe After Effects and added vintage audio effects like crackles and vinyl noise to simulate old recordings.

  • I rendered the final film.
     

    Side Note:

    • Instead of rotoscoping, I used Photoshop to isolate and desaturate the character Frank.

    • I uploaded the partially desaturated image to KlingAI, which recognized and animated the black-and-white character without affecting nearby pixels. You can see when Frank shakes hands with Martin, or holds hands with his wife, he remains in black and white without affecting them. It's all done in Kling AI.

    • This method saved me a lot of time.

 

 

Posté

Suis un gros boomer

 

Quote

[Altman) affirme notamment que «les personnes plus âgées utilisent ChatGPT comme un remplaçant de Google». Les jeunes adultes âgés de 20 à 30 ans s'en serviraient plutôt comme d'un conseiller de vie, tandis que les étudiants en feraient un usage bien plus complexe et avancé.

«Les étudiants l'utilisent comme un système d'exploitation», a expliqué Altman[...]

 

https://www.slate.fr/tech-internet/utilisation-chatgpt-age-sam-altman-openai-google-assistant-ia-etudes-generation-z-boomers-decision-prompts

  • Haha 1
Posté
Citation

D'après Sam Altman, certains des utilisateurs les plus jeunes ne prendraient même plus de décisions personnelles sans consulter ChatGPT. «Il dispose du contexte complet de toutes les personnes dans leur entourage et de ce dont elles ont parlé», dit-il.

Ça me rappelle mon ex qui m'avait sorti l'analyse que chatgpt me faisait de nos dernières "discussions" juste avant rupture. (Bon, niveau rapport sentimentaux elle avait un grain, j'en ai eu la démonstration à ce moment là).

 

Ça promet.

  • Sad 1
  • Haha 5
Posté
Le 15/05/2025 à 11:21, Alchimi a dit :

Ça promet.

1/ On découvre en effet qu'il y a une catégorie de gens qui sont absolument prêts à quasiment tout sous-traiter de ce qui, "normalement", les concerne personnellement. (ce qui ferait d'eux, a priori, des "individus").
Si une nouvelle sous-traitance est proposée, en l'occurrence IA pour se substituer à leurs propres cervelles pour leurs problèmes intimes ... hop, ils sautent dessus (bon, ça sera toujours moins cher que le psy, qui était la "soluce" précédente).

(Comment des individus peuvent-ils être qualifiés de "pensants" ... et simultanément sauter sur la moindre opportunité de laisser autre chose penser à leur place ?).
évidemment, il est inutile d'espérer une once de productivité de gens rendus à ce point de dépendance.

 

2/ Sociétalement, ça accroît encore le gap entre une certaine catégorie d'improductifs et les productifs. Jusqu'où ce gap peut-il s'élargir ?

(au pif, j'ai le sentiment que ça peut aller encore assez loin, et puis quand ça ressemblera à de l'arrosage de carottes, peut-être ça sera la limite ?).

  • Yea 3
Posté
il y a 25 minutes, Rübezahl a dit :

évidemment, il est inutile d'espérer une once de productivité de gens rendus à ce point de dépendance.

Oui bon en l'occurrence ici mon ex était productive. C'est surtout des questions psy. Ce qui n'en reste pas moins inquiétant parce que j'ai noté plusieurs personnes recourir à l'IA comme un espèce de soutien psychologique.

  • Yea 1
Posté
Il y a 12 heures, Alchimi a dit :

Ce qui n'en reste pas moins inquiétant parce que j'ai noté plusieurs personnes recourir à l'IA comme un espèce de soutien psychologique.

 

Pourquoi "inquiétant"? Je trouve cela au contraire rassurant.

Posté
il y a 44 minutes, Calembredaine a dit :

Pourquoi "inquiétant"? Je trouve cela au contraire rassurant.

Je m'attendais effectivement à ce qu'on me reprenne sur ce point, et pour avoir réfléchi fissa à la question, ce qui me chiffonne c'est la double perspective de voir des personnes tourner dans une boucle sans fin de leur propres failles, sans en sortir, puisqu'avant affaire à un espèce d'auto safe place, entretenu et promptés par eux, doublé d'un monde où le fait de ne plus savoir réagir à ce qu'on ne contrôle pas (puisque les autres ne se plieront pas aux moindres désirs de chacun) pourrait devenir la norme sociale d'une large partie de la jeunesse et donc d'une large part de la population active.

(Sans compter le fait que je m'interroge sur la pertinence des réponses de l'IA au sujet de la santé mentale).

 

En fait ça me rappelle -pas si indirectement- le début de Blade Runner, le roman, où Deckard et sa femme s'engueulent sur le sujet de se tirer la gueule le matin, chacun en programmant la pilule d'émotions qu'ils avalent le matin pour être plus ronchon que l'autre en réaction.

  • Yea 2
Posté

En psychothérapie 

1) soit on a une perspective humaniste (Rogers et al) et le phénomène d’intersubjectivité (humaine) est central: l’idée est que l’empathie, se mettre à la place d’un autre, permet de l’aider à résoudre ses problèmes, à le sortir de sa solitude etc

2) soit on a une perspective cognitive: on pense que les maladies mentales (légères) sont des troubles du raisonnement: on identifie les biais et on les corrige (stop feeling that feeling you’re feeling! STOP IT I said!)

3) soit on a une perspective freudienne et on pense que les problèmes mentaux sont plus ou moins relatifs à des traumatismes infantiles dont la pertinence pour le présent émerge dans des associations

 

Je ne vois absolument pas comment une IA peut servir de substitut à 1) et 3). Reste 2), que jai toujours considéré comme une vision très angélique de l’existence (si tout le monde était rationnel tout irait bien!)

 

Donc effectivement ça n’a rien de rassurant. Ça me rappelle Minsky qui avait créé un programme très basique qui recrachait la question à peine transformée: il arrive un jour au labo pour trouver sa secrétaire en train de déverser toute sa vie dans la machine. Je sais que les IAs contemporaines sont plus sophistiquées, mais je ne pense pas que les humains qui les approchent le soient. Ce qui attire les humains vers une IA “psy” peut être largement indépendant de la sophistication de l’IA (juste entrer dans une boucle négative de renforcement).

 

Je ne pense pas qu’on puisse comprendre les problèmes des humains si on n’est pas de la meme niche eco-biologique.

Posté

Une grande part de la psychothérapie consiste à faire parler le patient pour qu'il explicite ses émotions. 

Certaines personnes utilisent leur journal intime pour ça.

D'autres écrivent des nouvelles ou des romans.

 

Pourquoi pas une IA?

Posté
il y a 4 minutes, fm06 a dit :

faire parler le patient pour qu'il explicite ses émotions. 

Ben là on est plus dans du "soliloquisme" qui sert de prompt à une machine qui renvoie un peu ce qu'on lui file et confortera 1:1 les délires de la personne.

Posté
Il y a 1 heure, Vilfredo a dit :

[...]

2) soit on a une perspective cognitive: on pense que les maladies mentales (légères) sont des troubles du raisonnement: on identifie les biais et on les corrige (stop feeling that feeling you’re feeling! STOP IT I said!)

[...]

Je ne pense pas qu’on puisse comprendre les problèmes des humains si on n’est pas de la meme niche eco-biologique.

Les deux sont évidemment liés. ;)

Posté
Il y a 2 heures, Vilfredo a dit :

En psychothérapie 

1) soit on a une perspective humaniste (Rogers et al) et le phénomène d’intersubjectivité (humaine) est central: l’idée est que l’empathie, se mettre à la place d’un autre, permet de l’aider à résoudre ses problèmes, à le sortir de sa solitude etc

2) soit on a une perspective cognitive: on pense que les maladies mentales (légères) sont des troubles du raisonnement: on identifie les biais et on les corrige (stop feeling that feeling you’re feeling! STOP IT I said!)

3) soit on a une perspective freudienne et on pense que les problèmes mentaux sont plus ou moins relatifs à des traumatismes infantiles dont la pertinence pour le présent émerge dans des associations

 

Et pourquoi pas la 3) ? Je suis sûr que les psychanalystes font généralement preuve de beaucoup moins de créativité (de complexité algorithmique) que les thérapeutes cognitivistes, qui vont activement chercher de nouveaux trucs pour aider les patients à corriger leurs habitudes et leurs perceptions. 

Quand à la 1, il faut soit croire en la télépathie, soit pouvoir dire clairement ce que fait l'intersubjectivité et que ne fait pas la machine pour la justifier. 

 

Le problème des cognitivistes-stoiciens c'est qu'en voulant faire de l'esprit une machine rationnelle, ils le réduisent à des mécanismes irrationnels ; et le problème des psychanalystes-épicuriens, c'est qu'en voulant faire une science d'un esprit conçu comme flux de désirs irrationnels, ils le rendent rationnellement interprétable. Et le problème des uns, des autres, et des robopsy, c'est de ne pas avoir compris que ce sont Platon et Aristote (et peut-être Dabrowski) qui ont raison depuis le début, que l'âme a à la fois une partie rationnelle et une partie irrationnelle, que la santé de l'âme est l'accord entre les deux, et que la finalité de l'âme rationnelle est extérieur au champ de la psychologie. Puisque la vie de l'âme inclue de nombreuses activités dont les normes ne se réduisent pas à la psychologie (ne serait-ce que faire des maths), alors, un vrai accomplissement de l'âme implique de prendre en compte des choses qui échappent à la psychologie.

L'ia peut sans doute être aussi bonne qu'un psy en tant que psy, mais la vrai psy va de temps en temps devenir un mauvais psy et sortir de son champs de compétence, de façon illégitime, mais utile, et d'une façon qui échappe encore à la machine. 

Posté
Le 14/05/2025 à 12:12, Liber Pater a dit :

Un court-métrage produit intégralement par IA:

 

Enfin :) . C'est donc faisable seulement au prix du temps. La disruption d'Hollywood va être phénoménale. Et finalement, il y aura sûrement une adaptation de Loup Solitaire en série de mon vivant.

Posté
 
Enfin  . C'est donc faisable seulement au prix du temps. La disruption d'Hollywood va être phénoménale. Et finalement, il y aura sûrement une adaptation de Loup Solitaire en série de mon vivant.
Il ne tient qu'à toi de la créer ! ;)
Posté
4 hours ago, Vilfredo said:

1) soit on a une perspective humaniste (Rogers et al) et le phénomène d’intersubjectivité (humaine) est central: l’idée est que l’empathie, se mettre à la place d’un autre, permet de l’aider à résoudre ses problèmes, à le sortir de sa solitude etc

Pas sûr de comprendre. Si le but est de fournir une perspective extérieure, l'IA est parfaitement capable de faire ça.

Si le but est le lien émotionnel, l'humain à la capacité à s'attacher à un cube avec un cœur dessus si les circonstances s'y prêtent, donc je suis a peu près sûr que ça fonctionne très bien (https://en.wikipedia.org/wiki/Weighted_Companion_Cube)

Posté
il y a 34 minutes, Jensen a dit :

le but est le lien émotionnel, l'humain à la capacité à s'attacher à un cube avec un cœur dessus si les circonstances s'y prêtent, donc je suis a peu près sûr que ça fonctionne très bien

C’est bien le problème. Il y a une différence entre voir un chien dans un nuage dans le ciel et voir un chien? Il y a à peu près la même différence entre un lien émotionnel avec un cube et avec une personne. Sinon pourquoi n’épouses tu pas un cube?

Posté
Il y a 2 heures, Rincevent a dit :

Les deux sont évidemment liés. ;)

Tu peux développer? Dans ma tête c’était plutôt une tension: la niche écologique dans laquelle on a évolué, et qui sert de cadre herméneutique à la compréhension éthologique du comportement, est plutôt là pour montrer que les sciences cognitives au sens propre du terme (théorie du raisonnement, de la connaissance, de la croyance) ne devraient jamais avoir eu l’importance qu’elles ont pour la compréhension de l’homme par rapport aux sciences des émotions (affective neuroscience), de la vision etc. Enfin depuis Damasio on commence à comprendre ça et il y a un vibe shift bienvenu. Damasio, Kandel, Solms, tous ces gens lisent (intelligemment) Freud, bien entendu ;) 

Posté

C’est le mode de pensée qui consiste à trouver des ersatz qui ont soi-disant la même fonction que le vrai truc mais qui n’ont aucune signification, accompagné de la croyance (parfois même self-delusional) que la différence n’existe pas, qui me laisse perplexe. Hello? Have you met people?

Posté

Les idéalistes pensent un peu comme ça: hallucination ou pas, ça ne change rien, puisque ça se ressemble tellement qu’on ne peut pas faire la différence. Sauf que ça ne se ressemble pas et qu’on peut faire la différence 

Posté
18 minutes ago, Vilfredo said:

C’est bien le problème. Il y a une différence entre voir un chien dans un nuage dans le ciel et voir un chien? Il y a à peu près la même différence entre un lien émotionnel avec un cube et avec une personne. Sinon pourquoi n’épouses tu pas un cube?

Il y en a qui épousent la tour Eiffel.

 

 

Sinon en remarque générale sur toutes les thérapies abordées, je me vois dans l'obligation de sortir la carte "c'est plus compliqué que ça".

 

Sur la thérapie par IA j'imagine que le côté non humain est précisément ce qui est attirant pour certains profils. Interagir avec un humain c'est compliqué et parfois chiant. J'ai mis un temps à passer le pas mais désormais je préfère largement un caisse automatique quand je fais mes courses, par exemple.

Posté
il y a 4 minutes, Lancelot a dit :

Il y en a qui épousent la tour Eiffel.

 

 

Sinon en remarque générale sur toutes les thérapies abordées, je me vois dans l'obligation de sortir la carte "c'est plus compliqué que ça".

Je peux sortir la carte “tell me more”?

Posté

Dans (peut-être) la même ligne, on a de façon générale une capacité à projeter un schéma d’interprétation intentionnel sur n’importe quoi comme une animation d’un triangle “pourchassé” par un rectangle et “défendu” par un gentil cercle. On peut expliquer ça pr l’existence d’un “module” de mindreading si on est un psychologue évolutionniste des années 2000. Mais ça ne veut pas dire que ce à quoi ça s’applique est intentionnel. Et en même temps, l’intentionnalité, ca existe: ce “module” putatif était fait pour identifier un vrai truc! Personne ne pense qu’il n’y a ps plus dintentionalite chez les triangles que chez les humains, et que c’est juste une histoire de perspective. Ditto pour cette affaire de cubes 

 

je ne m’attendais pas a dire ça sur liborg mais vous ne regardez pas assez Peterson (le Peterson des années 2015, pré Benzo)

Posté
11 minutes ago, Vilfredo said:

Je peux sortir la carte “tell me more”?

Je n'ai pas le loisir de me lancer dans des points très poussés, mais par exemple la notion d'intersubjectivité va se retrouver dans toutes les approches.

Posté
52 minutes ago, Vilfredo said:

C’est bien le problème. Il y a une différence entre voir un chien dans un nuage dans le ciel et voir un chien? Il y a à peu près la même différence entre un lien émotionnel avec un cube et avec une personne. Sinon pourquoi n’épouses tu pas un cube?

Si le but est de remplacer les amis, entièrement d'accord. Mais pour remplacer un psy? je ne vois pas trop ce qu'on perd.

La tendance chez les jeunes urbains à embaucher des gens pour remplir des fonctions typiquement remplies par des proches est terrifiante, mais une fois qu'on a franchi cette étape, passer à une IA est juste une version moins cher. Le mal est déjà fait.

Posté
Il y a 3 heures, Vilfredo a dit :

Tu peux développer? Dans ma tête c’était plutôt une tension: la niche écologique dans laquelle on a évolué, et qui sert de cadre herméneutique à la compréhension éthologique du comportement, est plutôt là pour montrer que les sciences cognitives au sens propre du terme (théorie du raisonnement, de la connaissance, de la croyance) ne devraient jamais avoir eu l’importance qu’elles ont pour la compréhension de l’homme par rapport aux sciences des émotions (affective neuroscience), de la vision etc. Enfin depuis Damasio on commence à comprendre ça et il y a un vibe shift bienvenu. Damasio, Kandel, Solms, tous ces gens lisent (intelligemment) Freud, bien entendu ;) 

Oh c'était une vanne plus qu'autre chose. Quand j'entends un (zet) cognitiviste me causer de biais à longueur de journée, je me dis qu'on ne partage vraiment pas la même niche éco-biologique ni le même monde mental. ;)

Posté
Il y a 11 heures, Vilfredo a dit :

En psychothérapie 

1) soit on a une perspective humaniste (Rogers et al) et le phénomène d’intersubjectivité (humaine) est central: l’idée est que l’empathie, se mettre à la place d’un autre, permet de l’aider à résoudre ses problèmes, à le sortir de sa solitude etc

2) soit on a une perspective cognitive: on pense que les maladies mentales (légères) sont des troubles du raisonnement: on identifie les biais et on les corrige (stop feeling that feeling you’re feeling! STOP IT I said!)

3) soit on a une perspective freudienne et on pense que les problèmes mentaux sont plus ou moins relatifs à des traumatismes infantiles dont la pertinence pour le présent émerge dans des associations

 

Je ne vois absolument pas comment une IA peut servir de substitut à 1) et 3). Reste 2), que jai toujours considéré comme une vision très angélique de l’existence (si tout le monde était rationnel tout irait bien!)

 

Donc effectivement ça n’a rien de rassurant. Ça me rappelle Minsky qui avait créé un programme très basique qui recrachait la question à peine transformée: il arrive un jour au labo pour trouver sa secrétaire en train de déverser toute sa vie dans la machine. Je sais que les IAs contemporaines sont plus sophistiquées, mais je ne pense pas que les humains qui les approchent le soient. Ce qui attire les humains vers une IA “psy” peut être largement indépendant de la sophistication de l’IA (juste entrer dans une boucle négative de renforcement).

 

Je ne pense pas qu’on puisse comprendre les problèmes des humains si on n’est pas de la meme niche eco-biologique.

 

Entre une nana aux cheveux bleus qui a voté Bernie Sanders (pour reprendre une blague vue quelque part) et une IA, le choix est vite vu.

 

La première n'aura à peu près aucune chance de s'améliorer en fonction de mes contributions tandis que l'IA, oui. J'ai ces derniers jours eu de longues "conversations" introspectives avec chatGPT et j'en retire beaucoup. Evidemment, il faut savoir que tu es face à un outil mais on utilise aussi un psy comme un outil aussi, la plupart du temps.

Et j'ai vu assez de personnes dans ma vie complètement bullshit leur psy pour ne pas m'inquiéter de la possibilité de pouvoir bullshit soi-même et une IA.

  • Yea 1
Posté
Il y a 11 heures, Johnnieboy a dit :

Et j'ai vu assez de personnes dans ma vie complètement bullshit leur psy

Je crois que la moyenne des psys regardent le tarif horaire de la consultation du patient, et se disent que c'est bien d'abonder discrètement dans le sens des conneries de leur patient, plutôt que de devoir leur dire "ah non là vous déconnez un coup" et de voir le patient aller s'auto-justifier chez un autre confrère, avec son portefeuille.

 

Il y a 17 heures, Jensen a dit :

Si le but est de remplacer les amis, entièrement d'accord. [...]

Oui voilà, par certains aspects ils remplacent les relations humaines.

  • Yea 1

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...