Skip to content

Commit 4ecfd95

Browse files
committed
Calendar widget added
1 parent 718d01c commit 4ecfd95

File tree

11 files changed

+4237
-160
lines changed

11 files changed

+4237
-160
lines changed

messages/en.json

+1
Original file line numberDiff line numberDiff line change
@@ -24,6 +24,7 @@
2424
"language": "Language",
2525
"languageDescription": "Change the language used in the user interface",
2626
"reliabilityScore": "Reliability score",
27+
"reliability": "Reliability",
2728
"howCalculated": "How is this calculated?",
2829
"reliabilityLevel1": "The claim is not reliable,",
2930
"reliabilityLevel2": "The claim is likely not reliable,",

messages/fr.json

+32-31
Original file line numberDiff line numberDiff line change
@@ -24,6 +24,7 @@
2424
"language": "Langue",
2525
"languageDescription": "Changer la langue utilisée dans l'interface utilisateur",
2626
"reliabilityScore": "Score de fiabilité",
27+
"reliability": "Fiabilité",
2728
"howCalculated": "Comment Veracity calcule-t-il ce score?",
2829
"reliabilityLevel1": "Cet énoncé n'est pas fiable,",
2930
"reliabilityLevel2": "Cet énoncé n'est pas fiable,",
@@ -241,40 +242,40 @@
241242
"how_ai_works_academic_paper_citation": "Jacob-Junqi Tian, Hao Yu, Yury Orlovskiy, Tyler Vergho, Mauricio Rivera, Mayank Goel, Zachary Yang, Jean-François Godbout, Reihaneh Rabbany, & Kellin Pelrine (2024).",
242243
"how_ai_works_academic_paper_citation_title":"Web Retrieval Agents for Evidence-Based Misinformation Detection.",
243244
"how_ai_works_academic_paper_citation_cont": "In First Conference on Language Modeling.",
244-
"how_ai_works_additional_notes": "Some additional notes:",
245-
"how_ai_works_why_it_works_strong": "Why does this work at all?",
246-
"how_ai_works_why_it_works": "LLMs sometimes being wrong means that the conclusion of the app about how true the statement is, the summary it provides in support of that conclusion, as well as the reliability score itself can potentially all be misleading. That said, LLMs do very well at summarizing text. It is less obvious that the LLM will return a sensible reliability score. However, studies that have compared these score numbers do show high (but not perfect) overlap (see this",
247-
"how_ai_works_arxiv_link": "reference",
248-
"how_ai_works_why_it_works_cont": " for more detail). This is possible because there are numbers given in discussions about real events written all over the internet and the LLM was trained with lots of this internet data.",
249-
"how_ai_works_source_reliability": "Veri-fact.ai uses a particular database of source reliability scores that assign a score to a web domain name (like a news outlet cnn.com or a government us.gov). There is a handful of such databases out there. One study has collected some of these and shown they give ",
250-
"how_ai_works_domains_link": "similar reliabilities",
251-
"how_ai_works_source_reliability_cont": "They also made a composite score from a standard way of combining them. We use the database they provide of this composite score."
245+
"how_ai_works_additional_notes": "Quelques remarques complémentaires :",
246+
"how_ai_works_why_it_works_strong": "Pourquoi est-ce que ça fonctionne ?",
247+
"how_ai_works_why_it_works": "Le fait que les LLM puissent commettre des erreurs implique que la conclusion de l’application sur la véracité d’une affirmation, le résumé fourni pour l’appuyer, ainsi que le score de fiabilité attribué peuvent potentiellement être trompeurs. Cela dit, les LLM réussissent très bien dans la synthèse du texte, mais la pertinence du score de fiabilité généré par le LLM demeure moins évidente. Néanmoins, les études qui ont comparé ces scores montrent un chevauchement élevé (mais pas parfait) (voir ceci ",
248+
"how_ai_works_arxiv_link": "référence",
249+
"how_ai_works_why_it_works_cont": " pour plus de détails). Cela est possible car il existe des chiffres donnés dans des discussions sur des événements réels écrits partout sur Internet et le LLM a été formé avec beaucoup de ces données Internet.",
250+
"how_ai_works_source_reliability": "Veri-fact.ai utilise une base de données spécifique qui attribue des scores de fiabilité aux sources en fonction de leur nom de domaine (par exemple, un média comme cnn.com ou un site gouvernemental tel que us.gov). Il existe plusieurs bases de données de ce type. Une étude en a compilé quelques-unes et a démontré qu'elles attribuent des scores de ",
251+
"how_ai_works_domains_link": "fiabilité similaires",
252+
"how_ai_works_source_reliability_cont": "L'étude a également élaboré un score composite en combinant ces données selon une méthode standardisée. Nous utilisons la base de données qu'ils fournissent contenant ce score composite."
252253
},
253254
"guidelines":
254255
{
255-
"introThankYou": "Thanks for trying out veri-fact.ai. It uses AI (specifically a 'Large Language Model' (LLM)) to summarize relevant text from reliable sources retrieved from the internet. Some things to consider when using it:",
256-
"guidelinesAlwaysResponse": "The app will always give a response. To get a sensible response, ensure what you submit is ‘fact-checkable’. We suggest:",
257-
"guidelinesVerifiableStatement": "Making sure there is a verifiable statement expressed somewhere in the text you submit. You are not likely to get sensible results from checking an opinion, a difficult-to-verify reason for something, or a little-known fact.",
258-
"guidelinesSingleStatement": "Making sure there is",
259-
"guidelinesSingleStatementCont": "1 statement",
260-
"guidelinesSingleStatementEmphasis": "only",
261-
"guidelinesLlmWrongResponse": "You may still not get a sensible response, because",
262-
"guidelinesLlmWrongResponseStrong": "LLMs can sometimes give wrong (and often 'sounds right') explanations",
263-
"guidelinesLlmWrongResponseCont": "as an answer.",
264-
"guidelinesAssessQuality": "It’s up to us, if we want to use these systems, to",
265-
"guidelinesAssessQualityStrong": "assess the quality of the LLM’s response",
266-
"guidelinesAssessQualityCont": "and have a sense for when the AI may have trouble giving a reliable response:",
267-
"guidelinesWellKnownStatement": "Is the statement you want to fact-check well-known enough that it is likely to appear in multiple places on the internet? Some cases where it may not:",
268-
"guidelinesBreakingNewsEmphasis": "a breaking news event",
269-
"guidelinesBreakingNews": "there may not be very many websites with relevant content and those search results that are returned may be of low reliability since the sources mentioning the event are likely either random passersbys with little understanding of the context or involved parties that might have hidden motives in how they talk about it.",
256+
"introThankYou": "Merci d'avoir essayé Veri-fact.ai. Cet outil utilise l’IA (en particulier un grand modèle de langage) pour résumer des textes pertinents issus de sources fiables récupérées sur Internet. Quelques points à considérer lors de son utilisation :",
257+
"guidelinesAlwaysResponse": "L'application donnera toujours une réponse. Pour obtenir une réponse pertinente, assurez-vous que ce que vous soumettez est « vérifiable ».",
258+
"guidelinesVerifiableStatement": "Vérifiez qu'une déclaration vérifiable est clairement exprimée dans le texte que vous soumettez. Il est peu probable que vous obteniez des résultats fiables si vous vérifiez, par exemple, une opinion ou un fait peu connu.",
259+
"guidelinesSingleStatement": "Assurez-vous qu'il n'y a qu'une",
260+
"guidelinesSingleStatementCont": "déclaration à vérifier.",
261+
"guidelinesSingleStatementEmphasis": "seule",
262+
"guidelinesLlmWrongResponse": "Il est possible que vous n’obteniez pas de réponse raisonnable, car",
263+
"guidelinesLlmWrongResponseStrong": "les LLMs peuvent parfois fournir des explications erronées (qui semblent souvent « semblent plausibles »)",
264+
"guidelinesLlmWrongResponseCont": "comme réponse.",
265+
"guidelinesAssessQuality": "Il vous revient, en tant qu’utilisateur, d’",
266+
"guidelinesAssessQualityStrong": "évaluer la qualité de la réponse du LLM",
267+
"guidelinesAssessQualityCont": "et de reconnaître quand l’IA pourrait avoir du mal à fournir une réponse fiable. Pour ce faire, posez-vous comme questions :",
268+
"guidelinesWellKnownStatement": "La déclaration que vous souhaitez vérifier est-elle suffisamment connue pour être présente sur plusieurs sites Internet? Voici quelques situations où cela pourrait ne pas être le cas :",
269+
"guidelinesBreakingNewsEmphasis": "un événement d'actualité",
270+
"guidelinesBreakingNews": "Il se peut qu'il n'existe pas beaucoup de sites Web proposant un contenu pertinent et les résultats de recherche pourraient être peu fiables, car les sources mentionnant l'événement sont probablement soit des observateurs occasionnels ayant une compréhension limitée du contexte, soit des parties prenantes ayant des motivations cachées dans la façon dont elles en parlent.",
270271
"guidelinesBreakingNewsSug":"Suggestion:",
271-
"guidelinesBreakingNewsCont": "Double-check the sources to the right of our page. Do they sound familiar? Do they look typical?",
272-
"outsideList": "If not, you may want to be more skeptical about the answer the system returns.",
273-
"guidelinesLowCredibilitySources": "What if all the sources analyzed have low or absent source credibility? The system will likely identify this in its answer, but it is always good to check the source credibility scores for yourself. Note that the database veri-fact.ai uses only has so many entries. If the returned website comes from a source that isn’t in the database, that doesn’t necessarily mean it is unreliable, but it does indicate it is not a well-known source. The less well-known a source is, the less likely it is to be based on expert knowledge.",
274-
"guidelinesResearchAndFeedback": "Using LLMs to help us fact-check is a new area of research where new ways of doing it are proposed frequently and how well they do is also improving. The developers of veri-fact.ai aim to use the most up-to-date research about how to best use LLMs for fact-checking. They also hope to improve it and you can help here! You are invited to",
275-
"guidelinesResearchAndFeedbackStrong": "share your feedback",
276-
"afterFeedback": "that will be used to identify and try to correct problems you encounter, as well as to improve the overall user experience. The veri-fact.ai Team thanks you in advance for your participation in this collective experiment to better ground our public discussions in factuality!",
277-
"guidelinesTechnicalDetails": "If you would like to know more technical details about how the AI behind the app works click",
278-
"guidelinesClickHere": "here"
272+
"guidelinesBreakingNewsCont": "Revérifiez les sources à droite de notre page. Vous semblent-elles familières? Paraissent-elles typiques?",
273+
"outsideList": "Dans ce cas, vous voudrez peut-être adopter une attitude plus sceptique envers la réponse fournie par le système.",
274+
"guidelinesLowCredibilitySources": "Que se passe-t-il si toutes les sources analysées ont une crédibilité faible ou absente ? Le système l'indiquera probablement dans sa réponse, mais il est toujours recommandé de vérifier par vous-même les scores de crédibilité des sources. Il est important de noter que la base de données utilisée par veri-fact.ai contient un nombre limité d'entrées. Si le site Web renvoyé provient d’une source qui ne figure pas dans la base de données, cela ne signifie pas nécessairement qu'il est peu fiable, mais plutôt qu’il ne s’agit pas d’une source reconnue. Moins une source est connue, moins elle est susceptible de reposer sur des connaissances spécialisées.",
275+
"guidelinesResearchAndFeedback": "L'utilisation des LLM pour nous aider à vérifier les faits est un domaine de recherche émergent dans lequel de nouvelles méthodes sont régulièrement proposées et dont l'efficacité continue de s'améliorer. Les développeurs de veri-fact.ai s'efforcent d'utiliser les recherches les plus récentes pour optimiser l'utilisation des LLMs dans la vérification des faits. Ils espèrent également améliorer le système, et vous pouvez y contribuer! Vous êtes invité à",
276+
"guidelinesResearchAndFeedbackStrong": "partager vos commentaires",
277+
"afterFeedback": "qui seront utilisés pour identifier et résoudre les problèmes que vous rencontrez, ainsi que pour améliorer l’expérience utilisateur globale. L'équipe veri-fact.ai vous remercie d'avance pour votre participation à cette expérimentation collective visant à mieux ancrer nos discussions publiques dans la factualité!",
278+
"guidelinesTechnicalDetails": "Si vous souhaitez en savoir plus sur le fonctionnement de l'IA derrière l'application, cliquez",
279+
"guidelinesClickHere": "ici"
279280
}
280281
}

0 commit comments

Comments
 (0)