Aller au contenu

Intelligence artificielle


Messages recommandés

Posté

Quel IA recommanderiez vous pour résumer des pdf de plus de cent pages, et pour y trouver des informations précises ?

Je suis en train de m'enliser dans de vieux textes sans littérature secondaire occidentale, à la recherche d'un ou deux morceaux pertinents, et je perds beaucoup de temps.

Posté
1 hour ago, Mégille said:

Quel IA recommanderiez vous pour résumer des pdf de plus de cent pages, et pour y trouver des informations précises ?

 

C'est la niche des modèles de Google. Donc Gemini ou Notebook LM.

Posté
Le 15/03/2025 à 22:44, L'affreux a dit :

Je signale Manus, un agent chinois qui fait beaucoup parler de lui. L'inscription n'est pas ouverte car il ne tient pas la charge, il faut être invité. Mais il y a beaucoup de vidéos dessus. En voici une qui semble représentative de deux choses : 1/ Manus donne une idée de ce que nous aurons dans les mains dans quelques semaines ou mois, et 2/ où on en est aujourd'hui, c'est-à-dire que c'est une version alpha qui plante régulièrement et va rarement au bout de ce qu'elle tente.

 

C'est désormais en accès anticipé, lequel est accordé immédiatement sur demande.

  • Yea 1
Posté
Il y a 3 heures, Silence a dit :

C'est désormais en accès anticipé, lequel est accordé immédiatement sur demande.

 

J'ai accès, merci du tuyau !

  • Yea 1
Posté
Il y a 4 heures, Silence a dit :

Ton verdict (rapidos) ? 

 

J'ai le compte mais je n'ai encore rien fait avec. J'attendrai d'avoir un cas d'usage pour essayer.

  • 3 weeks later...
Posté

 

Citation

The CMV Mod Team needs to inform the CMV community about an unauthorized experiment conducted by researchers from the University of Zurich on CMV users. This experiment deployed AI-generated comments to study how AI could be used to change views.  

CMV rules do not allow the use of undisclosed AI generated content or bots on our sub.  The researchers did not contact us ahead of the study and if they had, we would have declined.  We have requested an apology from the researchers and asked that this research not be published, among other complaints. As discussed below, our concerns have not been substantively addressed by the University of Zurich or the researchers.

You have a right to know about this experiment. 

Last month, the CMV Mod Team received mod mail from researchers at the University of Zurich as "part of a disclosure step in the study approved by the Institutional Review Board (IRB) of the University of Zurich (Approval number: 24.04.01)."

The study was described as follows.

"Over the past few months, we used multiple accounts to posts published on CMV. Our experiment assessed LLM's persuasiveness in an ethical scenario, where people ask for arguments against views they hold. In commenting, we did not disclose that an AI was used to write comments, as this would have rendered the study unfeasible. While we did not write any comments ourselves, we manually reviewed each comment posted to ensure they were not harmful. We recognize that our experiment broke the community rules against AI-generated comments and apologize. We believe, however, that given the high societal importance of this topic, it was crucial to conduct a study of this kind, even if it meant disobeying the rules."

 

En français:

 

https://www.cryptopolitan.com/fr/university-of-zurich-ai-bots-to-shape-minds/

 

"Université de Zurich en difficulté, utilise des robots AI pour façonner et manipuler les esprits des utilisateurs de Reddit sans consentement"

 

Citation
  • Les chercheurs de l'Université de Zurich sont confrontés à un contrecoup pour l'utilisation de bots AI dans une expérience Reddit sans consentement des utilisateurs.
  • Des personnages générés par l'AI, y compris des survivants de traumatisme fabriqués, ont été utilisés pour influencer les opinions sur R / ChangeMyView.
  • Reddit interdit les comptes impliqués appelle la recherche moralement et légalement erronée et prépare une action en justice.
  • Des chercheurs de l'Université de Zurich pourraient être confrontés à des problèmes juridiques pour mener une expérience psychologique sur les utilisateurs de Reddit sans leur consentement. L'étude a été réalisée sur quatre mois sur le Subdredit R / ChangeMyView, en utilisant des commentaires générés par l'intelligence artificielle pour observer si les modèles de grandes langues (LLM) pourraient influencer les opinions des utilisateurs. 

    Selon un fil Reddit publié, des modérateurs de CMV de SUBRREDdit de 3,8 millions de membres ont décrit la recherche comme une «manipulation psychologique» des participants sans méfiance. Les mods ont déclaré que les chercheurs ont déployé des robots AI avec desdentfabriquées pour publier des réponses persuasives sous plusieurs threads.

    " Ces réponses générées par l'AI ont été non seulement fabriquées sans divulgation, mais présentées comme des expériences réelles réelles ", ont écrit les modérateurs dans le poste public. "Ils comprenaient des personnages tels qu'un survivant d'agression sexuelle, un conseiller en traumatologie spécialisé dans les abus et un homme noir opposé à Black Lives Matter. "

    AI Bots 6 fois susceptibles de modifier les opinions des utilisateurs

    Les bavardages des médias sociaux, dirigés par un compte X dédié à la discussion des opinions sur Reddit surnommé «Reddit Lies», ont fait valoir que les robots auraient pu utiliser la désinformation pour changer les esprits des Redditeurs. Le compte a affirmé que l'AI LLM était six fois plus susceptible de convaincre les communautés que la ligne de base.

     

     

    Certains de ces commentaires fabriqués par AI sont toujours visibles par le biais d'archives, bien que bon nombre des 1500 commentaires initiaux aient été supprimés après avoir été signalés par des modérateurs.

     

    Début avril, les modérateurs ont reçu un message des chercheurs qui divulguent l'expérience, qui avait été approuvée par le comité d'examen institutionnel de l'Université de Zurich (IRB), numéro d'approbation 24.04.01. Cependant, ils ont proposé que la divulgation est venue après la fin de l'expérience.

    Les chercheurs ont admis avoir utilisé plusieurs comptes pour publier des commentaires générés par les LLM. Ils ont insisté sur le fait que tout le contenu généré par l'IA a été examiné manuellement pour un langage nocif, mais a avoué avoir violé la règle communautaire de CMV contre l'utilisation de l'IA.

    L'étude a été initialement approuvée pour tester les «arguments basés sur la valeur» dans un contexte éthique où les utilisateurs demandent ouvertement des contrepoints à leurs croyances. Pourtant, selon les modérateurs, l'équipe a commencé à déployer des «arguments personnalisés et affinés» basés sur des données personnelles déduites, comme l'âge, le sexe, l'ethnicité, l'emplacement et les tendances politiques d'un utilisateur

  •  

    La plupart des exemples de personnages d'IA utilisés dans l'expérience comprenaient des histoires fabriquées de traumatismes et desdentpolitiques politiquement sensibles. Dans un cas, un bot de l'IA a accusé les membres d'un groupe religieux d'avoir contribué à des décès de masse, tandis qu'un autre a raconté une réception de soins médicaux inadéquats à l'étranger.
  •  Reddit a confirmé qu'il avait interdit tous les comptes associés à l'équipe de recherche de l'Université de Zurich et qu'il prépare une action en justice officielle.

     

 

Une manipulation.

  • Yea 1

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...