AI in week 7
Deze week kwam dit mooie interview uit dat ik op een heerlijk zonnige dag deed met FNO. Zo lekker dat het weer wat vroeger licht wordt na die donkere grijze winterdagen was ik daar wel aan toe. Geniet extra van deze nieuwsbrief, want volgende week is het vakantie en sla ik de lange nieuwsbrieven twee weken over!
Eenheidsworst
Deze week deed ik mee aan de boekenclub van Piek Knijff en we lazen het boek De grote weigering van Marian Donner. Het is het een dun boekje, je bent er zo doorheen, maar het zit boordevol goede inzichten! Het is een soort van samenvatting van en reflectie op een werk van Herbert Marcuse: De eendimensionale mens (Zie ook deze fijne, alleen op het eind een beetje brommerige, review in NRC van de laatste Nederlandse vertaling). Ik vond het heerlijk om te lezen, omdat Donner, in tegenstelling tot Marcuse, wel beknopt en helder schrijft en gebruik maakt van concrete voorbeelden. Haar boekje had van mij wel drie keer zo dik mogen zijn! En wie kwam ik weer tegen in dat boekje? Mijn idool Byung-Chul Han!
'De negativiteit van het vreemde en de weekhaakje van het anders-zijn storen en vertragen de gladgestreken communicatie van het gelijke', legde [...] Han uit in de transparante samenleving. Om geld, goederen en informatie vrijelijk te kunnen laten stromen moet negativiteit worden opgeheven en 'het onvergelijkbare eigene worden afgeschaft'.
Ja, zo voelt het toch op internet, alsof al het eigen wordt afgeschaft! Het wordt allemaal eenheidsworst!
Iedereen die wel eens op internet komt, vooral op Linkedin is inmiddels wel bekend met het fenomeen eenheidsworst, talloze posts die op elkaar lijken: drie keer zo lang als nodig, onnodig veel newlines en smileys, en pompeus woordgebruik. De onmiskenbare tekenen van een AI-gegenereerde post. Hier een afgrijselijk voorbeeld van dit genre.
AI, of we nu geloven dat het straks de wereld, het onderwijs en de politiek overneemt of niet, herconfigureert nu al wat we normaal vinden, daar is ChatGPT sowieso al in geslaagd, wat het verder ook doet. Zoals Ted Chang heel lang geleden (in ChatGPT tijd dan, het is uit de zomer van 2024) schreef in de New Yorker, en vooral bekend is van Chang's metafoor over hoe AI gebruiken lijkt op je vorkheftruuk meenemen naar de sportschool. Het stuk lijdt een beetje aan het syndroom dat "all these essays about the fundamental iterability of prose can read like iterations of the same piece" waar n+1 zo heerlijk op losging, maar dit is zo goed:
The task that generative A.I. has been most successful at is lowering our expectations, both of the things we read and of ourselves when we write anything for others to read. It is a fundamentally dehumanizing technology because it treats us as less than what we are: creators and apprehenders of meaning. It reduces the amount of intention in the world.
Ooit had tekst waarde, omdat je wist dat een ander er moeite ingestoken had. Een liefdesgedicht, hoe cringe ook, dat was een teken van liefde. Een opiniestuk uit pure woede of frustratie, een uiting van emotie maar ook een residue van denkwerk. Die tijd is voorbij, aldus programmeur Alex Martsinovich (Ik word altijd heel blij als mijn vakbroeders en -zusters zich op zinnige manier kritiek hebben op AI)
For the longest time, writing was more expensive than reading. If you encountered a body of written text, you could be sure that at the very least, a human spent some time writing it down. The text used to have an innate proof-of-thought, a basic token of humanity.
Martsinovich betoogt dat er niks mis is met AI gebruiken, zolang je de uitvoer maar met niemand deelt: "whenever you propagate AI output, you're at risk of intentionally or unintentionally legitimizing it with your good name, providing it with a fake proof-of-thought." Ik ben het wel eens met de basishouding, maar de vraag komt dan al snel op wat delen is, direct ctrl-c-en natuurlijk zeker, maar lezen en dan weer in een stuk gebruiken dat kan ook gebeuren zonder dat je het doorhebt. Ik schreef vorige week al over onderzoek waaruit bleek dat mensen bij een web search snel denken dat ze het antwoord zelf al wisten.
Het diepere probleem is dat een chatbots geen intentie heeft, en dat de informatie die eruit komt losgezongen is van de werkelijkheid. Het beste is AI content misschien te begrijpen als "bullshit", zoals filosofen van de universiteit van Glasgow midden 2024 al schreven. En dan niet in de colloquial betekenis van nonsense, maar in de wetenschappelijke. Ja, er is zoiets als wetenschappelijke bullshit, die academici toch, die verzinnen toch altijd weer wat! LLMs moet begrepen worden, schrijven Hicks (niet Mar Hicks!) en collega's:
We argue that these falsehoods, and the overall activity of large language models, is better understood as bullshit in the sense explored by Frankfurt (On Bullshit, Princeton, 2005): the models are in an important way indifferent to the truth of their outputs. [nadruk van mij]
In het oorspronkelijke werk van Frankfurt—dat vooral tractie kreeg toen Trump aan de macht kwam—zegt hij dat iemand die de waarheid vertelt en een leugenaar in feite in dezelfde dimensie opereren, maar tegenovergesteld. Ze hebben een conceptie van de werkelijkheid, en een waarheidsverteller volgt die naar beste weten, en een leugenaar ontkent die. Een bullshitter, zegt Frankfurt, kan die hele realiteit niets schelen. In de context van Trump zie je dat kloppen, het is anders dan liegen als je, wanneer je betrapt wordt, gewoon doorgaat of wat anders verzint.
Ik vind dat bullshitten een zinnige term waar het op AI aankomt, ware het niet dat het een lastige term is omdat mensen moeten lachen en vaak aan iets heel anders denken dan aan een serieuze wetenschappelijke term. Ik noem het zelf liever epistemisch geweld, geweld dat we kennis aandoen, maar die term wordt nu al gebruikt om het specifieke geweld aan te duiden dat je iemand of een groep mensen aandoet als je ze niet serieus neemt, dus hebben we eigenlijk een nieuwe term nodig.
Niet helemaal hetzelfde maar Italiaanse onderzoekers noemen de onoverbrugbare verschillen tussen wat LLM doen en wat mensen doen "epistemic fault lines". Wie denkt dat ze hetzelfde zijn, lijdt aan "epistemia" een aandoening "producing the feeling of knowing without the labor of judgment". Een soort ongevirus!
Andere wetenschappers zijn trouwens weer fijn verder gegaan op het werk van Hicks, en beargumenteren dat omdat LLMs bullshitters zijn, je ze nooit als tutor of medeauteur kan zien. Niet eens zozeer door de hallucinaties, maar omdat die tools geen verantwoordelijkheid kunnen nemen voor hun uitvoer, je weet wel "A computer can never be held accountable, therefor it must never make a management decision". Dus als je studenten of leerlingen vraagt om samen met AI iets te maken, of dat nu sparren is of schrijven of wat dan ook, dan vraag je ze om alleen verantwoordelijkheid te nemen voor de uitvoer ("pedagogically perverse" noemen zij dat). Dit laatste paper is meer het lezen waard vind ik dan het originele bullshit paper van Frankfurt of de eerste toepassing ervan op AI van Hicks, omdat het concreter is, en heel fijn de kritiek van Plato op technologie contextualiseert! Lekker voor als de hypers weer eens aankomen met "PlATo WaS OOK TeGeN SCHrIJveN":
In a sense, this fear has proven to be well-founded. Those trained in oral cultures have, from the perspective of written cultures, seemingly superhuman powers of recall. For better or worse, written cultures have traded off these mnemonic capacities for the archival forms of memory that writing makes possible.
Second, and more importantly for our argument here, Plato was concerned with the way that words, once written down, escape their author’s control, and can be interpreted in any number of ways, without their author being present to defend their intended meaning.
En dat is nou precies wat er gebeurde! Met een beperkt aantal boeken was het nog wel te overzien, maar met het internet wordt het opeens wel een probleem.
Vrouwen & AI
Ok, ik ga de eerste wet van Schlesinger toch breken en wat zeggen dat door mijn vijanden tegenovergesteld geïnterpreteerd kan worden: vrouwen hebben veel minder zin om AI te gebruiken dan mannen, aldus Katie Jagielnicka in The Noösphere:
According to a recent Harvard Business School meta-analysis of 18 studies, women have 22% lower odds of using generative AI websites and apps than men, both at work and in everyday life. And this pattern holds across countries, sectors, occupations, and tools. Between 2022 and 2024, women accounted for roughly 42% of global users of ChatGPT and Perplexity websites, and just 31% of Anthropic’s. On smartphones, the gap widens even further: only 27% of ChatGPT app downloads come from women.
Nu kan je dat, en dat doen mensen ook, interpreteren als een gebrek aan interesse of zelfs kennis. Niet alleen bij vrouwen, ook deze week in NRC, bij andere minderheden:
Maar bepaalde groepen – zoals ouderen, lageropgeleiden en mensen met minder economisch, sociaal of cultureel kapitaal – maken duidelijk minder gebruik van deze zogeheten generatieve AI.
Maar misschien maken vrouwen er minder gebruik van omdat ze de risico's zien! Anekdotisch lijkt dat mij te kloppen; vrouwen zijn oververtegenwoordigd in de AI-kritische groepen waarvan ik deel uitmaak, juist omdat ze zich vaker druk maken over ongelijkheid en misschien ook omdat ze zien dat vrouwen vaker last hebben van de uitwassen van technologie. Jagielnicka noemt als eerste deepfakes als risico en reden om niet enthousiast te zijn over alles dat generatieve AI is. Ik merk dit zeker ook als ik in de klas met mijn leerlingen over AI praat, dat het eerste waar meiden zich druk over maken, deepfakes zijn.
In one recent survey, 71% of teenage girls expressed concerns about AI reinforcing gender bias, and 70% linked AI recommendation algorithms to poor mental health. Most boys, by contrast, believed AI would help create more jobs and were far less concerned about its societal impact. Their interests also diverged: girls were drawn to ethics and policy; boys toward AI development and robotics.
Logisch denk ik als jij de ontvanger van de risico's bent, dan je dan niet zo enthousiast meer bent! Lees ook hoe bij schrijfster Nina Jankowicz dee terechte pijn en frustratie van de pagina's af spatten over deepfakes:
Nine years of being told the systematic objectification of women online was the domain of gender equality organizations, not the governments that represented them or the tech companies that made it possible.
(Aan het einde van het stuk geeft Jankowicz trouwens ook nog wat concrete tips om je te verzetten tegen Grok, en wat je kan doen als deepfakes jou overkomen).
En dan nog even dit
- Timeline cleanse! Absoluut amazing steampunk spinnen van oude horloges. Als ik het heb over de kracht van maken is die wat ik bedoel.
- Wie denkt dat Polymarket een nieuw idee is, mooie rapportage in de Financial Times over hoe ze in 1914 een wedstrijd uitschrijven waarin je de kaart na de oorlog kon voorspellen en de lange geschiedenis ervan.
- Nog maar weer eens– het blijft nodig—een mooi betoog in de Groene Amsterdammer dat een minimumleeftijd voor socials niet helpt:
Iets schadelijks of verslavends – zoals gokken, sigaretten of inderdaad sociale media – framen als ‘jongerenprobleem’ speelt de verstrekkers daarvan in de kaart. Die kunnen namelijk op die manier regulering beperken tot het tienerpubliek.
- Wat een mooi interview in Volkskrant met Iliass El Hadioui van Grip op de minisamenleving, over het hebben van hoge verwachtingen als docent.
Goed nieuws
Er worden nog maffe dingen gemaakt, zoals deze site waar je je eigen paard kan tekenen dat dan voor je rond gaat rennen.
Koffie, het is goed voor je! Uit onderzoek onder meer dan 130.000 mensen blijkt dat meer koffie samenhangt met betere cognitieve prestaties en minder kans op dementie.
Kan je geen genoeg krijgen van mijn nieuwsbrieven, of heb je nog niet alles gelezen? Ik heb lekker JavaScript zitten hacken dit weekend en nu kan jij gratis en voor niets via /random naar een random oude nieuwsbrief navigeren!
Slecht nieuws
In Australië is de social media ban ingegaan voor jongeren onder de 16, en tsja... dat gaat zoals iedereen zou verwachten, jongeren omzeilen massaal de ban met geniale truukjes zoals het aanmaken van nieuwe accounts met een valse geboortedatum. Maar, the kids are allright hoor, luister maar eens wat deze 15-jarige knul voor verstandigs te zeggen heeft:
What upsets me most is the waste of resources that has gone into this whole thing. That money should have been spent figuring out ways to regulate the platforms rather than trying to regulate kids. Or at least put towards educating kids and parents on the best ways to avoid online harms. Over Christmas I saw so many little kids spending so much time on screens – their parents let them.
Ik had het hier ook even over in mijn column (terug van weggeweest! na een half jaartje pauze ben ik weer iedere maand op maandag te horen op BNR), Ongevraagd Advies!
En misschien ook nog relevant, veel onderzoek naar social media (ongeveer de helft!) blijkt in samenwerking met grote bedrijven te worden uitgevoerd, terwijl dat in lang niet al die gevallen duidelijk wordt aangegeven, dat gebeurt maar in 20% van de papers
Een nieuw datacentrum gaat meer stroom gebruiken dan heel Lelystad, schrijft nu.nl en gemeenteraad werd daarover niet goed geïnformeerd! In de stukken die de raad kreeg, ging het over "grofweg ingeschat" 3.000 tot 5.000 huishoudens, maar dat blijkt nu wel 200.000 huishoudens, berekende energiedeskundige Enzo Diependaal. De belangen van big tech bedrijven gaan nu eenmaal voor, zoals ook weer eens pijnlijk duidelijk wordt uit deze rapportage van FTM.
Onderzoek onder meer dan 3000 mensen van onder andere Carnegie Mellon toont aan, niet zo verrassend, dat mensen liever vlijende (sycophantic) chatbots gebruiken dan bots die het meer met ze oneens zijn. En... juist die bots zorgen ervoor dat mensen juist extreme gaan denken "Brief conversations with sycophantic chatbots increased attitude extremity and certainty". Onaardige (disagreeable) chatbots doen juist het tegenovergestelde, en interessant genoeg vonden deelnemers de vlijende chatbot vaak neutraal, terwijl ze de onaardige juist als biased beoordeelden! En tot slotte zorgden de vlijende bots nog voor een toename in overmoed:
Sycophantic chatbots also inflated people’s perception that they are “better than average” on a number of desirable traits(e.g., intelligence, empathy)
Geniet van je boterham!
English
This week, this wonderful interview was published, which I did on a lovely sunny day with FNO (Dutch). I was so ready for the days to get lighter again after those dark gray winter days. Enjoy this newsletter extra, because next week is vacation and I'll be skipping the long newsletters for two weeks!
"Unity sausage"
This week, I participated in Piek Knijff's book club, and we read the book De grote weigering (The Great Refusal) by Marian Donner. It's thin, you can read it in one sitting, but it's full of good insights! It's a kind of summary and reflection on a work by Herbert Marcuse: One-Dimensional Man (See also this nice review in Dutch in NRC of the latest Dutch translation, which gets a bit grumpy at the end). I loved reading it because, unlike Marcuse, Donner writes concisely and clearly and uses concrete examples. I would have liked her book to be three times as thick! And who did I come across in that book? My idol Byung-Chul Han (only in Dutch).
“The negativity of the strange and the sharp edge of otherness disrupt and slow down the smooth communication of sameness,” Han explained in The Transparent Society. In order for money, goods, and information to flow freely, negativity must be eliminated and “the incomparable unique must be abolished.”
Yes, that's how it feels on the internet, as if everything unique is being abolished! It's all becoming uniform.
Anyone who uses the internet, especially LinkedIn, is familiar with the phenomenon of uniformity, countless posts that are all similar: three times as long as necessary, unnecessary newlines and smileys, and pompous language. The unmistakable signs of an AI-generated post. Here is a terrible example of this genre.
AI, whether we believe it will take over the world, education, and politics or not, is already reconfiguring what we consider normal. ChatGPT has already succeeded in this, whatever else it does. As Ted Chang wrote a long time ago (in ChatGPT time, that is, it's from the summer of 2024) in the New Yorker, and is best known for Chang's metaphor about how using AI is like taking your forklift to the gym. The piece suffers a bit from the syndrome that "all these essays about the fundamental iterability of prose can read like iterations of the same piece" which n+1 so delightfully ran wild with, but this is so good:
The task that generative A.I. has been most successful at is lowering our expectations, both of the things we read and of ourselves when we write anything for others to read.
It is a fundamentally dehumanizing technology because it treats us as less than what we are: creators and apprehenders of meaning. It reduces the amount of intention in the world.
Text used to have value because you knew that someone else had put effort into it. A love poem, however cringe-worthy, was a sign of love. An opinion piece written out of pure anger or frustration, an expression of emotion but also a residue of thought. Those days are over, according to programmer Alex Martsinovich (I am always very happy when my colleagues offer meaningful criticism of AI).
For the longest time, writing was more expensive than reading. If you encountered a body of written text, you could be sure that at the very least, a human spent some time writing it down. The text used to have an innate proof-of-thought, a basic token of humanity.
Martsinovich argues that there is nothing wrong with using AI, as long as you don't share the output with anyone: "whenever you propagate AI output, you're at risk of intentionally or unintentionally legitimizing it with your good name, providing it with a fake proof-of-thought." I agree with the basic stance, but the question then quickly arises as to what sharing is. Directly copying and pasting is obvious, of course, but reading and then using it in a piece can also happen without you realizing it. Last week, I wrote about research that showed that when doing a web search, people quickly think they already knew the answer themselves.
The deeper problem is that chatbots have no intention, and the information they produce is detached from reality. Perhaps the best way to understand AI content is as "bullshit", as philosophers at the University of Glasgow wrote in mid-2024. And not in the colloquial sense of nonsense, but in the scientific sense. Yes, there is such a thing as scientific bullshit; academics are always coming up with something new! LLMs must be understood, write Hicks (not Mar Hicks!) and colleagues:
We argue that these falsehoods, and the overall activity of large language models, is better understood as bullshit in the sense explored by Frankfurt (On Bullshit, Princeton, 2005): the models are in an important way indifferent to the truth of their outputs. [emphasis mine]
In Frankfurt's original work—which gained traction when Trump came to power—he says that someone who tells the truth and a liar actually operate in the same dimension, but oppositely. They have a conception of reality, and a truth-teller follows it to the best of their knowledge, and a liar denies it. A bullshitter, says Frankfurt, doesn't care about reality at all. In the context of Trump, you can see that this is true; it's different from lying when, if you're caught, you just carry on or make up something else.
I think bullshitting is a useful term when it comes to AI, were it not for the fact that it is a difficult term because people laugh and often think of something completely different than a serious scientific term. I prefer to call it epistemic violence, violence that we inflict on knowledge, but that term is already used to refer to the specific violence you inflict on someone or a group of people when you don't take them seriously, so we actually need a new term.
Not quite the same, but Italian researchers refer to the unbridgeable differences between what LLMs do and what humans do as "epistemic fault lines". Anyone who thinks they are the same suffers from "epistemia", a condition that "produces the feeling of knowing without the labor of judgment".
Other scientists have further expanded on Hicks' work, arguing that because LLMs are bullshitters, you can never consider them as tutors or co-authors. Not so much because of the hallucinations, but because these tools cannot take responsibility for their output, you know "Acomputer can never be held accountable, therefore it must never make a management decision". So if you ask students or pupils to create something together with AI, whether it's sparring or writing or whatever, you are asking them to take responsibility only for the output (they call this “pedagogically perverse”). I think this latest paper is more worth reading than Frankfurt's original bullshit paper or Hicks' first application of it to AI, because it is more concrete and nicely contextualizes Plato's criticism of technology! Great for when the hypers come up with “Plato was also against writing” again:
In a sense, this fear has proven to be well-founded. Those trained in oral cultures have, from the perspective of written cultures, seemingly superhuman powers of recall. For better or worse, written cultures have traded off these mnemonic capacities for the archival forms of memory that writing makes possible.
Second, and more importantly for our argument here, Plato was concerned with the way that words, once written down, escape their author's control, and can be interpreted in any number of ways, without their author being present to defend their intended meaning.
And that seems to be exactly what happened! With a limited number of books it was sort of manageable, with the internet... not so much.
Women & AI
Okay, I'm going to break Schlesinger's first law after all and say something that my enemies may interpret in the opposite way: women are much less inclined to use AI than men, according to Katie Jagielnicka in The Noösphere:
According to a recent Harvard Business School meta-analysis of 18 studies, women have 22% lower odds of using generative AI websites and apps than men, both at work and in everyday life. And this pattern holds across countries, sectors, occupations, and tools. Between 2022 and 2024, women accounted for roughly 42% of global users of ChatGPT and Perplexity websites, and just 31% of Anthropic's. On smartphones, the gap widens even further: only 27% of ChatGPT app downloads come from women.
Now, you could interpret that as a lack of interest or even knowledge, and people do. Not only among women, but also, as reported this week in NRC, among other minorities:
But certain groups—such as the elderly, the less educated, and people with less economic, social, or cultural capital—clearly make less use of this so-called generative AI. [translated from Dutch]
But perhaps women use it less because they see the risks! Anecdotally, that seems to me to be true; women are overrepresented in the AI-critical groups I belong to, precisely because they are more often concerned about inequality and perhaps also because they see that women are more often affected by the excesses of technology. Jagielnicka is the first to mention deepfakes as a risk and a reason not to be enthusiastic about everything that is generative AI. I certainly notice this when I talk to my students about AI in class, that the first thing girls worry about is deepfakes.
In one recent survey, 71% of teenage girls expressed concerns about AI reinforcing gender bias, and 70% linked AI recommendation algorithms to poor mental health. Most boys, by contrast, believed AI would help create more jobs and were far less concerned about its societal impact. Their interests also diverged: girls were drawn to ethics and policy; boys toward AI development and robotics.
It makes sense, I think, that if you are the recipient of the risks, you are no longer so enthusiastic! Read also how writer Nina Jankowicz's justified pain and frustration about deepfakes hits hard:
Nine years of being told the systematic objectification of women online was the domain of gender equality organizations, not the governments that represented them or the tech companies that made it possible.
(At the end of the piece, Jankowicz also gives some concrete tips on how to resist Grok and what you can do if deepfakes happen to you).
And then there's this
- Timeline cleanse! Absolutely amazing steampunk spiders made from old watches. When I talk about the power of making, this is what I mean.
- For those who think Polymarket is a new idea, there's a nice report in the Financial Times about how, in 1914, they organized a competition in which you could predict the map after the war, and its long history.
- Once again—it remains necessary—a beautiful argument in the Groene Amsterdammer that a minimum age for social media does not help (Dutch):
Framing something harmful or addictive—such as gambling, cigarettes, or indeed social media—as a “youth problem” plays into the hands of those who distribute it. That way, they can limit regulation to the teenage audience.
Good news
People are still coming up with crazy things, such as this site where you can draw your own horse that will then run around on a website with all its digital horse friends!
Coffee, it's good for you! Research among more than 130,000 people shows that drinking more coffee is associated with better cognitive performance and a lower risk of dementia.
Bad news
In Australia, the social media ban for young people under 16 has come into effect, and well... it's going as everyone would expect, with young people circumventing the ban en masse with ingenious tricks such as creating new accounts with a false date of birth. But, the kids are all right, listen to what this 15-year-old boy has to say:
What upsets me most is the waste of resources that has gone into this whole thing. That money should have been spent figuring out ways to regulate the platforms rather than trying to regulate kids. Or at least put towards educating kids and parents on the best ways to avoid online harms. Over Christmas I saw so many little kids spending so much time on screens – their parents let them.
I also mentioned this in my column (back after a six-month break, I'm back on BNR monthly on Mondays), Ongevraagd Advies (In Dutch).
And perhaps also relevant, a lot of research into social media (about half!) appears to be carried out in collaboration with large companies, while this is not clearly indicated in all cases, but only in 20% of the papers
A new data center will use more power than the entire city of Lelystad, writes nu.nl, and the city council was not properly informed about this! The documents provided to the council referred to a "rough estimate" of 3,000 to 5,000 households, but energy expert Enzo Diependaal has calculated that the figure is actually 200,000 households. The interests of big tech companies simply take precedence, as is once again painfully clear from this report by FTM (both in Dutch).
Research among more than 3,000 people from Carnegie Mellon, among others, shows, not surprisingly, that people prefer to use sycophantic chatbots rather than bots that disagree with them more. And... it is precisely these bots that cause people to think in extreme terms "Brief conversations with sycophantic chatbots increased attitude extremity and certainty". Disagreeable chatbots do the opposite, and interestingly, participants often found the flattering chatbot neutral, while they judged the disagreeable one as biased! Finally, the flattering bots also caused an increase in overconfidence:
Sycophantic chatbots also inflated people’s perception that they are “better than average” on a number of desirable traits (e.g., intelligence, empathy).
Enjoy your sandwich!
Member discussion