O New York Times foi atrapado usando alucinacións da intelixencia artificial nos seus informes | A Morsa

O New York Times foi atrapado usando alucinacións da intelixencia artificial nos seus informes | A Morsa



Lo mes pasado, o New York Times publicou un artigo sobre o primeiro ministro Mark Carney conseguindo un goberno maioritario. No artigo cítase ao líder do Partido Conservador, Pierre Poilievre, que denuncia aos membros do seu partido que cruzaran a palabra para unirse aos liberais de Carney. “Se a estes revoltosos lles queda algún chisco de integridade, deberían renunciar aos seus escanos esta noite e concorrer mañá a unhas eleccións parciales”, dixo o xornal Poilievre nun discurso en marzo.

Puntos clave

  • Un número crecente de xornalistas e publicacións parecen estar utilizando ferramentas de intelixencia artificial nos seus informes
  • Nalgúns casos, as alucinacións da intelixencia artificial foron publicadas por medios xornalísticos como feitos
  • A inexactitud da IA ​​debe ser tratada tan seriamente como os erros humanos e as fabricacións no pasado para defender a integridade da industria

Excepto Poilievre nunca dixo iso. En silencio, máis de dúas semanas despois, engadiuse unha corrección ao final do artigo sinalando que fora actualizado “despois do Tempos decatouse de que un comentario atribuído a Pierre Poilievre, o líder conservador, era de feito un resumo xerado por AI das súas opinións sobre a política canadense que AI presentou como unha cita. O xornalista debería comprobar a precisión do que devolveu a ferramenta de IA”.

Esa xornalista era Matina Stevis-Gridneff, a New York TimesO xefe da oficina de Canadá, e parece que o seu erro non foi sinalado polos editores senón por unha lectora entusiasta chamada Iris, quen respondeu á publicación de Stevis-Gridneff Bluesky o 15 de abril, o día seguinte de publicarse o artigo, para preguntar de onde procedía a cita. “Busquei os discursos que pronunciou en marzo e non podo atopalo dicindo isto”, escribiu Iris.

O artigo non foi corrixido ata o 1 de maio, cunha cita considerablemente menos descarada dun discurso que Poilievre pronunciou en abril, non en marzo: “A miña opinión persoal é que, cando un deputado do Parlamento volve sobre a palabra que lle fixo aos seus electores e cambia de partido, os electores deberían poder presentar unha petición para expulsalos”. Para entón, importaba? A maioría das persoas que verían o artigo leran a versión cunha declaración inventada, e probablemente nunca saberán que non era real.

O New York Times é un dos xornais máis lidos do planeta, e tamén de Canadá. En 2018, os canadenses representaron máis da cuarta parte dos seus 2 millóns de subscritores internacionais, o que significa que moitos de nós podemos ler o Tempos tanto como —se non máis que— calquera publicación doméstica. Estes números desmenten o sentido que adoita ter un Tempos non ten exactamente unha comprensión firme da nosa vasta nación. Non menos de tres veces, o xornal referiuse por erro á illa de Vancouver como “illa Victoria”. E quen pode esquecer o día en que se legalizaron as vendas de marihuana en Canadá, que foi o día despois de que a ex-xefa da oficina de Toronto, Catherine Porter, declarase nun tuit tan burlado que debería ser inmortalizado como un momento patrimonial: “Os canadenses chámanlle o Día C”. Cando foi desafiada, ela dobrou, afirmando que o escoitou de moitos “xornais locais” e “amantes do cannabis”.

Non obstante, moitos dos erros son menos divertidos. En 2019, Porter viaxou a Cape Dorset e volveu cunha historia chea de clichés e estereotipos racistas sobre as comunidades indíxenas “plagadas pola pobreza, o alcoholismo e o abuso doméstico”. “Non son pobre”, dixo Ooloosie Saila, unha artista de Cape Dorset que cría que estaba a falar con Porter por unha historia sobre o seu traballo, a APTN News despois de que a peza fose publicada. “Eu nin sequera dixen nada sobre a pobreza, pero ela púxoo nos xornais”.

Aínda así, estes son erros humanos recoñecibles. Os xornalistas fan erros tipográficos e escoitan citas mal; escoitan unha cousa e asumen que é unha tendencia. Como Porter, filtran o que ven a través dos seus propios prexuízos, deformando o rexistro para reflectir as súas crenzas sobre o mundo. Ás veces se cometen erros sen culpa do xornalista; a principios deste ano, unha historia na que editei O Narval realizou unha corrección despois de ter indicado erróneamente o tamaño dunha nova área protexida en Nunavut. O erro veu da nota de prensa oficial. Se o único que fas é buscar erros nun informe, normalmente atoparasos, polo que os editores e os verificadores de feitos son tan importantes.

Se un xornalista ten présa -informando dun acontecemento político histórico de importancia nacional, por exemplo-, pode que non se demore para detectar os seus propios erros. E a redacción do Tempos corrección: “o xornalista debería ter comprobado a precisión do que devolveu a ferramenta de IA” – suxire un erro de présa, non de proceso. O New York Times A política de intelixencia artificial di: “Calquera uso da intelixencia artificial xerativa na redacción debe comezar con información factual revisada polos nosos xornalistas e, como ocorre con todo o que producimos, debe ser revisada polos editores”.

Pero copiar citas producidas pola IA xerativa nos informes é unha categoría diferente de erro, unha categoría máis preocupante. Este exemplo fai que o problema sea evidente: os programas xerativos de IA (ChatGPT, Gemini, Claude, Grok e similares) alucinan, un termo que se refire á súa tendencia a presentar as invencións como feitos. As fabricacións adoitaban ser un pecado mortal no xornalismo. O New York TimesO propio Jayson Blair deixou o xornal en 2003 baixo unha escura nube de escándalo despois de que se revelase que inventaba regularmente detalles para a súa reportaxe. As flagrantes fabricacións de Stephen Glass en A Nova República a finais da década de 1990 foron o suficientemente escandalosas como para merecer a Vanity Fair longa e unha adaptación cinematográfica de Hollywood. Pero o tratamento minimizador da cita falsa de Poilievre de Stevis-Gridneff suxire que na era da IA, a fabricación pode deixar de ser unha transgresión que pon fin á carreira, polo menos, non para todos.

Ultimamente, parece que unha publicación tras outra foi atrapada no abrazo ilícito dos informes xerados pola intelixencia artificial. A principios deste ano, un crítico de libros independente chamado Alex Preston admitiu que utilizou a IA para escribir partes dunha recensión publicada no Tempos en febreiro, pero só despois de que se sinalase que a ferramenta de IA plaxiara unha recensión do mesmo libro publicada anteriormente no Gardián. O ano pasado, o Tempos informou sobre unha lista de lectura de verán publicada polo Chicago Sun-Times e o Filadelfia Inquirer que fora poboada de títulos inventados por autores reais; un autónomo chamado Marco Buscaglia admitiu que utilizou a IA para producir a función.

Tanto Preston como Buscaglia foron rapidamente condenados. Un portavoz do Tempos segundo informou o Gardián que Preston non volvería escribir para eles, e King Features, a subsidiaria de Hearst que contratou a Buscaglia, dixo que estaba a pór fin á súa relación. Pero os autónomos son desbotables; Despedir un é un xeito sinxelo de que as publicacións cumpran un compromiso cun estándar profesional sen ter que mirar demasiado profundamente os seus propios procesos. Un xefe de oficina na New York Times ten moito máis poder e influencia, establecendo o estándar para os xornalistas que lles informan. O seu uso da IA ​​non é unha aberración da política dunha publicación senón, sen dúbida, a política real en vigor.

Máis preocupante é que estes son só os fracasos evidentes do uso xerativo da IA ​​no xornalismo que son demasiado grandes para perderse. Que pasa coa probabilidade dun uso rutineiro e sen control que pase desapercibido? Que pasa coa cita que ninguén intenta verificar nas redes sociais? E a fonte terxiversada que non quere falar contra un dos xornais máis importantes do mundo?

E que dicir dos xornalistas que non queren afastar a un posible futuro empregador ou ser incluídos na lista negra como autónomo? (O Tempos actualmente está contratando para o correspondente occidente na súa oficina de Canadá, cun rango de salario publicado que chega a 235.000 dólares, preto de tres veces o que gaña o xornalista medio canadense. Aos xornalistas pídeselles que fagan máis con menos todo o tempo; a tentación de usar a IA é comprensible, aínda que conleva o enorme risco de vergoña pública e (para algúns) consecuencias graves. Pero tamén é, sen dúbida, unha responsabilidade profesional pedir contas á nosa industria, resistirse a normalizar a incursión da IA ​​xerativa.

Como xornalista, non creo que sexa unha carga usar o meu propio cerebro para xerar ideas. Non quero axilizar o proceso de escritura, que se move ao ritmo dos meus pensamentos. Non sería xornalista se quixese un robot adulador e mentiroso para construír a miña comprensión dos acontecementos en lugar de investigalos eu. Non todo o mundo está de acordo comigo, pero independentemente de onde se atope sobre a suposta utilidade da IA, sospeito que a maioría da xente está de acordo en que os medios xornalísticos publican mentiras e inventos rotundos, veñan de onde veñan, é algo moi malo.

Entón, que pasou? Moitos xornalistas, incluído eu, usan software para transcribir as súas entrevistas gravadas. Ferramentas como Otter confían en sistemas de recoñecemento de voz, unha variedade de intelixencia artificial que existe desde hai máis de setenta anos pero que só na última década se volveu fiable. Todo o mundo sabe que non debe confiar plenamente no que estes programas devolven textualmente, pero son útiles para atopar o que buscas nunha entrevista para que poidas transcribilo manualmente.

A intelixencia artificial xerativa, por outra banda, non só analiza datos e transcribe palabras pronunciadas en voz alta nunha páxina, senón que produce un novo contido baseado nos datos dispoñibles, creando secuencias plausibles de palabras que poden ser verdadeiras, plaxiar ou estar totalmente inventadas. Informar dunha cita totalmente fabricada atribuída a unha data inexacta, como fixo Stevis-Gridneff, non é un erro das ferramentas de recoñecemento de voz, senón un uso obvio da IA ​​xerativa.

Ningún de nós pode determinar os seguintes pasos para o New York Timespero descartar un incidente desta magnitude afecta a toda a industria xornalística. Non só socava outros informes da súa oficina de Canadá e a integridade das políticas de intelixencia artificial do xornal, senón que as súas accións dan forma á percepción do xornalismo no seu conxunto. Aqueles que cren que hai casos de uso responsable da IA ​​no xornalismo —eu non son un deles, pero vounos escoitar— deberían estar de acordo, polo menos, en que o uso irresponsable debe ser tratado tan seriamente como calquera outro acto de fabricación. Se non o é, é unha admisión tácita de que esta ética profesional carece de sentido.

Por correo electrónico, Stevis-Gridneff dixo que non tiña liberdade para falar do incidente. Nunha declaración a The Walrus, un portavoz de New York Times dixo que o seu “reporteiro utilizou a intelixencia artificial para localizar os comentarios públicos máis recentes de Pierre Poilievre. A ferramenta proporcionou ligazóns a un vídeo dun discurso, así como presuntas citas transcritas dese discurso. A observación que publicamos inicialmente era, de feito, un resumo xerado pola intelixencia artificial dos comentarios de Poilievre interpretados incorrectamente como unha transcrición”. O portavoz rexeitou responder preguntas de seguimento que preguntaban que ferramenta de IA se utilizou e se se permite o texto xerado por AI nos artigos sempre que se comprobe se hai erros. O voceiro si explicou que o atraso na emisión da corrección se debe a que o xornalista non é “usuario habitual de [Bluesky]”.

Se a IA xerativa non mentira, non alucinase, non inventase, importaría que os xornalistas a usaran? Creo que si. Cada vez máis, vivimos nun mundo de profundas divisións, fortalecido por algoritmos, con consecuencias absurdas e terroríficas: aumento de movementos supremacistas brancos, desinformación desenfreada, conspiracións baseadas no avestruz. Reforxar unha realidade compartida non é unha tarefa que se poida terceirizar por comodidade ou rapidez; esixe que os xornalistas se comprometan co mundo, observen o que está a suceder, sexan responsables das cousas que dicimos e facemos. Para saber se realmente sucederon as cousas que estamos informando, porque as observamos nós mesmos.

Moitos membros do público xa desconfiaban dos medios antes de que comezasen a sospeitar que gran parte delas estaban escritas por robots alucinantes. Por que deberían confiar en calquera de nós agora cando o xornal máis poderoso do mundo confirmou as súas sospeitas?

O New York Times foi atrapado usando alucinacións da intelixencia artificial nos seus informes | A Morsa

Michelle Cyca é escritora colaboradora de The Walrus.



Leave a Reply

Your email address will not be published. Required fields are marked *