You are on page 1of 12

00:12

I want you to imagine walking into a room, a control room with a bunch of people, a hundred
people, hunched over a desk with little dials, and that that control room will shape the
thoughts and feelings of a billion people. This might sound like science fiction, but this
actually exists right now, today.

00:39
I know because I used to be in one of those control rooms. I was a design ethicist at
Google, where I studied how do you ethically steer(manejar, conducir) people's
thoughts? Because what we don't talk about is how the handful of people working at a
handful of technology companies through their choices will steer what a billion people are
thinking today. Because when you pull out your phone and they design how this works or
what's on the feed, it's scheduling little blocks of time in our minds. If you see a
notification, it schedules you to have thoughts that maybe you didn't intend to have. If you
swipe over that notification, it schedules you into spending a little bit of time getting sucked
into something that maybe you didn't intend to get sucked into. When we talk about
technology, we tend to talk about it as this blue sky opportunity. It could go any
direction. And I want to get serious for a moment and tell you why it's going in a very
specific direction. Because it's not evolving randomly. There's a hidden goal driving the
direction of all of the technology we make, and that goal is the race for our
attention. Because every new site -- TED, elections, politicians, games, even meditation apps -
- have to compete for one thing, which is our attention, and there's only so much of it. And
the best way to get people's attention is to know how someone's mind works. And there's a
whole bunch of persuasive techniques that I learned in college at a lab called the Persuasive
Technology Lab to get people's attention.

02:21
A simple example is YouTube. YouTube wants to maximize how much time you spend. And so
what do they do? They autoplay the next video. And let's say that works really well. They're
getting a little bit more of people's time. Well, if you're Netflix, you look at that and
say, well, that's shrinking my market share, so I'm going to autoplay the next episode. But
then if you're Facebook, you say, that's shrinking all of my market share, so now I have to
autoplay all the videos in the newsfeed before waiting for you to click play. So the internet is
not evolving at random. The reason it feels like it's sucking us in the way it is is because of
this race for attention. We know where this is going. Technology is not neutral, and it
becomes this race to the bottom of the brain stem of who can go lower to get it.

03:13
Let me give you an example of Snapchat. If you didn't know, Snapchat is the number one
way that teenagers in the United States communicate. So if you're like me, and you use text
messages to communicate, Snapchat is that for teenagers, and there's, like, a hundred
million of them that use it. And they invented a feature called Snapstreaks, which shows the
number of days in a row that two people have communicated with each other. In other words,
what they just did is they gave two people something they don't want to lose. Because if
you're a teenager, and you have 150 days in a row, you don't want that to go away. And so
think of the little blocks of time that that schedules in kids' minds. This isn't theoretical:
when kids go on vacation, it's been shown they give their passwords to up to five other
friends to keep their Snapstreaks going, even when they can't do it. And they have, like, 30
of these things, and so they have to get through taking photos of just pictures or walls or
ceilings just to get through their day. So it's not even like they're having real
conversations. We have a temptation to think about this as, oh, they're just using
Snapchat the way we used to gossip on the telephone. It's probably OK. Well, what this
misses is that in the 1970s, when you were just gossiping on the telephone, there wasn't a
hundred engineers on the other side of the screen who knew exactly how your psychology
worked and orchestrated you into a double bind (por partida doble) with each other.

04:38
Now, if this is making you feel a little bit of outrage, notice that that thought just comes
over you. Outrage is a really good way also of getting your attention, because we don't
choose outrage. It happens to us. And if you're the Facebook newsfeed, whether you'd want
to or not, you actually benefit when there's outrage. Because outrage doesn't just schedule
a reaction in emotional time, space, for you. We want to share that outrage with other
people. So we want to hit share and say, "Can you believe the thing that they said?" And so
outrage works really well at getting attention, such that if Facebook had a choice between
showing you the outrage feed and a calm newsfeed, they would want to show you the outrage
feed,not because someone consciously chose that, but because that worked better at getting
your attention. And the newsfeed control room is not accountable to us. It's only accountable
to maximizing attention. It's also accountable, because of the business model of
advertising, for anybody who can pay the most to actually walk into the control room and say,
"That group over there, I want to schedule these thoughts into their minds." So you can
target, you can precisely target a lie directly to the people who are most susceptible. And
because this is profitable, it's only going to get worse.

06:04
So I'm here today because the costs are so obvious. I don't know a more urgent problem
than this, because this problem is underneath all other problems. It's not just taking away
our agency to spend our attention and live the lives that we want,it's changing the way that
we have our conversations, it's changing our democracy, and it's changing our ability to have
the conversations and relationships we want with each other. And it affects
everyone, because a billion people have one of these in their pocket.

06:45
So how do we fix this? We need to make three radical changes to technology and to our
society. The first is we need to acknowledge that we are persuadable. Once you start
understanding that your mind can be scheduled into having little thoughts or little blocks of
time that you didn't choose, wouldn't we want to use that understanding and protect against
the way that that happens? I think we need to see ourselves fundamentally in a new way. It's
almost like a new period of human history, like the Enlightenment, but almost a kind of self-
aware Enlightenment, that we can be persuaded, and there might be something we want to
protect. The second is we need new models and accountability systems so that as the world
gets better and more and more persuasive over time -- because it's only going to get more
persuasive -- that the people in those control rooms are accountable and transparent to what
we want. The only form of ethical persuasion that exists is when the goals of the
persuader are aligned with the goals of the persuadee. And that involves questioning big
things, like the business model of advertising. Lastly, we need a design renaissance, because
once you have this view of human nature, that you can steer the timelines of a billion people -
- just imagine, there's people who have some desireabout what they want to do and what
they want to be thinking and what they want to be feeling and how they want to be
informed, and we're all just tugged into these other directions. And you have a billion people
just tugged into all these different directions. Well, imagine an entire design
renaissance that tried to orchestrate the exact and most empoweringtime-well-spent way
for those timelines to happen. And that would involve two things: one would be protecting
against the timelines that we don't want to be experiencing, the thoughts that we wouldn't
want to be happening, so that when that ding happens, not having the ding that sends us
away; and the second would be empowering us to live out the timeline that we want.

08:43
So let me give you a concrete example. Today, let's say your friend cancels dinner on you, and
you are feeling a little bit lonely. And so what do you do in that moment? You open up
Facebook. And in that moment, the designers in the control room want to schedule exactly
one thing, which is to maximize how much time you spend on the screen. Now, instead,
imagine if those designers created a different timeline that was the easiest way, using all of
their data, to actually help you get out with the people that you care about? Just think,
alleviating all loneliness in society, if that was the timeline that Facebook wanted to make
possible for people. Or imagine a different conversation. Let's say you wanted to post
something supercontroversial on Facebook, which is a really important thing to be able to
do, to talk about controversial topics. And right now, when there's that big comment
box, it's almost asking you, what key do you want to type? In other words, it's scheduling a
little timeline of things you're going to continue to do on the screen. And imagine instead
that there was another button there saying, what would be most time well spent for
you? And you click "host a dinner." And right there underneath the item it said, "Who wants
to RSVP for the dinner?" And so you'd still have a conversation about something
controversial, but you'd be having it in the most empowering place on your timeline, which
would be at home that night with a bunch of a friends over to talk about it. So imagine we're
running, like, a find and replace on all of the timelines that are currently steering us towards
more and more screen time persuasively and replacing all of those timelines with what do we
want in our lives.

10:26
It doesn't have to be this way. Instead of handicapping our attention, imagine if we used all
of this data and all of this powerand this new view of human nature to give us a superhuman
ability to focus and a superhuman ability to put our attention to what we cared about and a
superhuman ability to have the conversations that we need to have for democracy. The most
complex challenges in the world require not just us to use our attention individually. They
require us to use our attention and coordinate it together. Climate change is going to require
that a lot of people are being able to coordinate their attention in the most empowering way
together. And imagine creating a superhuman ability to do that.

11:18
Sometimes the world's most pressing and important problems are not these hypothetical
future things that we could create in the future. Sometimes the most pressing problems are
the ones that are right underneath our noses, the things that are already directing a billion
people's thoughts. And maybe instead of getting excited about the new augmented
reality and virtual reality and these cool things that could happen, which are going to be
susceptible to the same race for attention, if we could fix the race for attention on the
thing that's already in a billion people's pockets. Maybe instead of getting excitedabout the
most exciting new cool fancy education apps, we could fix the way kids' minds are getting
manipulated into sending empty messages back and forth.

12:03
(Applause)

12:08
Maybe instead of worrying about hypothetical future runaway artificial intelligences that are
maximizing for one goal, we could solve the runaway artificial intelligence that already exists
right now, which are these newsfeeds maximizing for one thing. It's almost like instead of
running away to colonize new planets, we could fix the one that we're already on.

12:31
(Applause)

12:39
Solving this problem is critical infrastructure for solving every other problem. There's
nothing in your life or in our collective problems that does not require our ability to put our
attention where we care about. At the end of our lives, all we have is our attention and our
time. What will be time well spent for ours?

13:03
Thank you.

13:04
(Applause)

13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec. First of all, thank you. I know we
asked you to do this talk on pretty short notice, and you've had quite a stressful
week getting this thing together, so thank you. Some people listening might say, what you
complain about is addiction, and all these people doing this stuff, for them it's actually
interesting. All these design decisions have built user content that is fantastically
interesting. The world's more interesting than it ever has been. What's wrong with that?
13:46
Tristan Harris: I think it's really interesting. One way to see this is if you're just YouTube,
for example, you want to always show the more interesting next video. You want to get
better and better at suggesting that next video, but even if you could propose the perfect
next video that everyone would want to watch, it would just be better and better at keeping
you hooked on the screen. So what's missing in that equation is figuring out what our
boundaries would be. You would want YouTube to know something about, say, falling
asleep. The CEO of Netflix recently said, "our biggest competitors are Facebook, YouTube
and sleep." And so what we need to recognize is that the human architecture is limited and
that we have certain boundaries or dimensions of our lives that we want to be honored and
respected, and technology could help do that.

14:28
(Applause)

14:31
CA: I mean, could you make the case that part of the problem here is that we've got a nave
model of human nature? So much of this is justified in terms of human preference, where
we've got these algorithms that do an amazing job of optimizing for human preference, but
which preference? There's the preferences of things that we really care about when we
think about them versus the preferences of what we just instinctively click on. If we could
implant that more nuanced view of human nature in every design, would that be a step
forward?

15:01
TH: Absolutely. I mean, I think right now it's as if all of our technology is basically only
asking our lizard brain what's the best way to just impulsively get you to do the next tiniest
thing with your time, instead of asking you in your life what we would be most time well spent
for you? What would be the perfect timeline that might include something later, would be
time well spent for you here at TED in your last day here?

15:22
CA: So if Facebook and Google and everyone said to us first up, "Hey, would you like us to
optimize for your reflective brain or your lizard brain? You choose."

15:29
TH: Right. That would be one way. Yes.

15:34
CA: You said persuadability, that's an interesting word to me because to me there's two
different types of persuadability.There's the persuadability that we're trying right now of
reason and thinking and making an argument, but I think you're almost talking about a
different kind, a more visceral type of persuadability, of being persuaded without even
knowing that you're thinking.
15:52
TH: Exactly. The reason I care about this problem so much is I studied at a lab called the
Persuasive Technology Lab at Stanford that taught [students how to recognize] exactly
these techniques. There's conferences and workshops that teach people all these covert
ways of getting people's attention and orchestrating people's lives. And it's because most
people don't know that that exists that this conversation is so important.

16:11
CA: Tristan, you and I, we both know so many people from all these companies. There are
actually many here in the room,and I don't know about you, but my experience of them is
that there is no shortage of good intent. People want a better world. They are actually --
they really want it. And I don't think anything you're saying is that these are evil
people. It's a system where there's these unintended consequences that have really got out
of control --

16:37
TH: Of this race for attention. It's the classic race to the bottom when you have to get
attention, and it's so tense. The only way to get more is to go lower on the brain stem, to go
lower into outrage, to go lower into emotion, to go lower into the lizard brain.

16:50
CA: Well, thank you so much for helping us all get a little bit wiser about this.

16:54
Tristan Harris, thank you. TH: Thank you very much.

16:57
(Applause)
Quiero que se imaginen entrando en una sala. Una sala de control con un montn de gente, cien
personas encorvadas en un escritorio con pequeos diales... y que esa sala de control moldear
los pensamientos y sentimientos de un billn de personas. Esto podra sonar como ciencia
ficcin, pero esto realmente existe en la actualidad.

00:39
Lo s porque sola estar en una de esas salas de control. Yo era un diseador tico en
Google, donde estudi cmo se controlan los pensamientos de la gente de forma tica; debido
a que, de lo que no hablamos, es de cmo el puado de personas que trabajan en un puado de
empresas de tecnologa, por medio de sus decisiones, controlarn lo que un billn de personas
estn pensando en la actualidad. Porque cuando sacan su telfono, ellos disean cmo esto
funciona o qu hay en las notificaciones y estn programando pequeos bloques de tiempo en
nuestras mentes. Si ven una notificacin, esta los programa para que tengan pensamientos que
quizs no tenan la intencin de tener. Si presionan esa notificacin,esta los programa para
que pasen un poco de tiempo, al ser atrapados por algo, por lo que quiz no tenan la intencin
de dejarse atrapar. Cuando hablamos de tecnologa, tendemos a hablar de ella, como esta
enorme oportunidad, que podra ir en cualquier direccin. Y quiero hablar seriamente por un
instante y decirles por qu va en una direccin muy especfica,puesto no est evolucionando al
azar. Hay un objetivo oculto dirigiendo la direccin de toda la tecnologa que hacemos y ese
objetivo es la carrera por nuestra atencin. Porque cada sitio nuevo: TED, elecciones,
polticos, juegos, incluso las aplicaciones de meditacin, tienen que competir por una
cosa, nuestra atencin y sta es limitada. La mejor manera de capturar la atencin de las
personas, es saber cmo funciona la mente de alguien. Hay una cantidad de tcnicas de
persuasin que aprend en un laboratorio de la universidad llamado: 'Lab. de Tecnologa
Persuasiva,' para capturar la atencin de la gente.

02:21
Un ejemplo sencillo es YouTube. YouTube quiere maximizar el tiempo que Uds. pasan
all. Entonces, qu es lo que hacen?Reproducen el siguiente vdeo automticamente y digamos
que funciona muy bien. Estn consiguiendo un poco ms de tiempo de la gente. Bueno, si son
Netflix, miran eso y dicen: "Eso est reduciendo mi cuota de mercado, as que voy a
reproducir el siguiente episodio automticamente." Pero si son Facebook, dicen: "eso est
reduciendo toda mi cuota de mercado, as que ahora debo reproducir todos los vdeos del
inicio automticamente, antes de esperar a que hagan clic en reproducir." Por eso Internet no
est evolucionando al azar. La razn por la que parece que nos atrapa en la manera que lo
hace, se debe a esta carrera por la atencin. Sabemos adnde va esto. La tecnologa no es
neutral. Y se convierte en esta carrera hacia el fondo del tronco enceflico; de quin puede ir
ms bajo para ganarla.

03:13
Permtanme darles un ejemplo de Snapchat. Si no lo saban, Snapchat es el medio nmero
uno que los adolescentes de EE. EE. usan para comunicarse. Si son como yo y usan mensajes de
texto para comunicarse, eso es Snapchat para los adolescentes y hay como cien millones de
ellos que la usan. Ellos inventaron una funcin llamada Snapstreaks, la cual muestra el nmero
de das seguidos que dos personas se han comunicado entre s. En otras palabras, lo que
acaban de hacer, es que le dieron a dos personas algo que no quieren perder. Ya que si son
un(a) adolescente y tienen 150 das seguidos, no quieren que eso se esfume. As que piensen
en los pequeos bloques de tiempo, que eso programa en las mentes de los nios. Esto no es
terico: cuando los nios van de vacaciones, se ha demostrado que dan sus contraseasa hasta
cinco de sus amigos para mantener su Snapstreaks activo, incluso cuando no pueden hacerlo. Y
tienen como 30 de estas cosas, as que, tienen que tomar fotos o simplemente imgenes de
paredes o techos slo para pasar su da. Ni siquiera es como si conversaran
realmente. Tenemos la tentacin de pensar en esto como: "Oh, slo estn usando Snapchat de
la forma en que solamos chismear en el telfono. Probablemente est bien." Pero lo que esto
omite es que en la dcada de 1970, cuando estaban simplemente chismeando en el telfono, no
haban cien ingenieros al otro lado de la pantalla, que saban exactamente cmo funcionaba su
psicologa y los orquestaban en un doble vnculo entre s.

04:38
Ahora, si esto les hace sentir un poco de indignacin, noten que ese pensamiento simplemente
les llega. La indignacin tambin es una manera muy buena de capturar su atencin, ya que no
elegimos la indignacin, es algo que nos sucede. Y si son la seccin de novedades de Facebook,
quiranlo o no, de hecho se benefician cuando hay indignacin, porque la indignacin no slo
programa una reaccin emocional en Uds. en el tiempo/espacio, sino que queremos compartir
esa indignacin con otros. Queremos dar clic en compartir y decir: "Pueden creer lo que
dijeron?" Y as, la indignacin funciona muy bien para capturar la atencin, de modo que si
Facebook tuviera la opcin entre mostrarles publicaciones indignantes o tranquilas, ellos
querran mostrarles las indignantes, no porque alguien eligi conscientemente eso, sino porque
eso funcion mejor, para capturar su atencin. Y... La sala de control de noticias no es
responsable de nosotros.Slo es responsable de maximizar la atencin. Tambin es
responsable, debido al modelo de negocio de la publicidad,para cualquiera que pueda pagar
ms, entrar en la sala de control y decir: "Ese grupo all, quiero programar estos
pensamientos en sus mentes." As que se puede elegir como blanco... se puede apuntar con
precisin una mentira,directamente a las personas que son ms susceptibles. Y debido a que
esto es rentable, slo va a empeorar.

06:04
As que hoy estoy aqu, porque los costos son muy evidentes. No conozco un problema ms
urgente que este, porque este problema est debajo de todos los dems problemas. No slo
se est llevando nuestra voluntad, de invertir nuestra atencin y vivir las vidas que
queremos; est cambiando la manera en que tenemos nuestras conversaciones, est
cambiando nuestra democracia y est cambiando nuestra habilidad de tener conversaciones y
las relaciones que queremos unos con otros. Y afecta a todos, porque un billn de personas
tienen uno de estos en su bolsillo.

06:45
Entonces, cmo arreglamos esto? Necesitamos hacer tres cambios radicales en la tecnologa
y en nuestra sociedad. El primero es que debemos reconocer que somos persuasibles. Una vez
que empiezan a entender, que su mente puede ser programada para que tenga pequeos
pensamientos, o pequeos bloques de tiempo que no eligieron, no querramos usar esa
comprensin y protegernos de la forma en que eso sucede? Pienso que necesitamos vernos
fundamentalmente de una nueva forma. Es casi como un nuevo perodo de la historia humana,
como la Ilustracin; pero casi una especie de iluminacin autoconsciente; que podemos ser
persuadidos y podra haber algo que queramos proteger. El segundo es que necesitamos
nuevos modelos y sistemas de responsabilidad, para que a medida que el mundo mejore y se
vuelva ms persuasivo con el tiempo, - porque slo va a hacerse ms y ms persuasivo - que las
personas en esas salas de controlsean responsables y transparentes con lo que queremos. La
nica forma tica de persuasin que existe, es cuando los objetivos del persuasor estn
alineados con los objetivos del persuadido y eso implica cuestionar cosas grandes, como el
modelo de negocio publicitario. Finalmente, necesitamos un renacimiento del diseo, porque
una vez que se tiene esta visin de la naturaleza humana, de que se puede controlar las lneas
de tiempo de un billn de personas, slo imaginen, hay gente que tiene algn deseo de lo que
quieren hacer, estar pensando y sintiendo y cmo quieren ser informados y simplemente todos
somos halados en estas otras direcciones y hay un billn de personas arrastradas en todas
estas diversas direcciones. Bueno, imaginen todo un Renacimiento de diseo que procurara
orquestar la manera ms exacta y poderosa de invertir el tiempo para que estas lneas de
tiempo ocurrieran. Eso implicara dos cosas: Una nos estara protegiendo de las lneas de
tiempo, que no queremos experimentar, los pensamientos que no queremos procesar, para no
tener ese timbre, que cuando suena nos dispersa. Y la segunda nos permitira vivir la lnea de
tiempo que queremos.

08:43
Permtanme darles un ejemplo concreto. Digamos que su amigo(a) les cancela la cena hoy y se
estn sintiendo un poco solos. Entonces, qu hacen en ese momento? Abren Facebook... y en
ese momento los diseadores en la sala de control, quieren programar exactamente una
cosa, lo cual es maximizar la cantidad de tiempo que pasan en la pantalla. Ahora, en lugar de
eso imaginen si esos diseadores crearan una lnea de tiempo diferente que fuera la manera
ms fcil, - utilizando todos sus datos - para ayudarles realmente a salir, con las personas que
les importan. Tan slo imagnenlo, eso aliviara toda la soledad en la sociedad, si ese fuera el
cronograma que Facebook quisiera hacer posible para la gente. O imaginen una conversacin
diferente, donde digamos que quisieran publicar algo sper controvertido en Facebook, lo que
es muy importante, - hablar de temas polmicos -. Y ahora mismo, cuando est esa gran caja
de comentarios, casi preguntndoles: Qu quieres escribir? En otras palabras, est
programando una pequea serie de cosas que van a seguir haciendo en la pantalla. E imaginen
que en lugar de eso, hubiese otro botn all diciendo: Cul sera la mejor forma de invertir tu
tiempo? Y hacen clic en "organizar una cena" y justo debajo del artculo dijera: Quin quiere
confirmar la cena?Y an as tendran una conversacin acerca de algo controvertido, pero la
tendra en el lugar ms inspirador en su lnea de tiempo, la que sera en casa esa noche, con un
montn de amigos para hablar de ello. Imaginen que estamos operando, como un
"buscar/reemplazar" en todas las lneas de tiempo que actualmente nos
manipulan persuasivamente hacia ms y ms tiempo en la pantalla y reemplazar todas esas
lneas de tiempo, con lo que s queremos en nuestras vidas.

10:26
No tiene por qu ser de esta manera. En lugar de perjudicar nuestra atencin, imaginen si
usramos toda esta informacin y todo este poder y esta nueva visin de la naturaleza
humana para darnos una habilidad sobrehumana de concentracin y una habilidad sobrehumana
de poner nuestra atencin en lo que nos importa, y una habilidad sobrehumana de tener las
conversaciones que necesitamos tener en la democracia. Los desafos ms complejos en el
mundo, no slo requieren de nosotros que usemos nuestra atencin individualmente. Nos
exigen que utilicemos nuestra atencin y la coordinemos colectivamente. El cambio climtico
va a requerir que mucha gente, sea capaz de coordinar su atencin en conjunto de la manera
ms poderosa. E imaginen crear una habilidad sobrehumana para hacer eso.

11:18
A veces los problemas ms urgentes e importantes del mundo, no son estas cosas futuras e
hipotticas, que podramos crear en el futuro. A veces los problemas ms urgentes, son los
que estn justo ante nuestras narices; las cosas que ya estn dirigiendo los pensamientos de
un billn de personas. Y tal vez en lugar de entusiasmarnos con la nueva realidad aumentada y
la realidad virtual y estas cosas geniales que podran suceder, - las cuales van a ser
susceptibles a la misma carrera por la atencin - pudiramos arreglar la carrera por la
atencin, respecto a lo que ya est en el bolsillo de un billn de personas. Tal vez en lugar de
emocionarnos por las nuevas, emocionantes y ms lujosas aplicaciones educativas,podramos
arreglar la manera en que las mentes de los nios son manipuladas, para que enven mensajes
vanos de un lado a otro.

12:03
(Aplausos)

12:08
Quiz en lugar de preocuparnos por un futuro hipottico de inteligencias artificiales
fugitivas, que se estn maximizando para un objetivo, podramos solucionar la inteligencia
artificial fugitiva, que ya existe en este momento, las cuales son estas secciones de
publicaciones que se maximizan para una cosa. Es casi como en lugar de huir a colonizar nuevos
planetas,arreglaramos el planeta en el que ya estamos.

12:32
(Aplausos)

12:39
Solucionar este problema supone tener una infraestructura crtica, para solucionar cualquier
otro problema. No hay nada en sus vidas o en nuestros problemas colectivos, que no requiera
de nuestra capacidad de enfocarnos en las cosas que nos importan. Al final de nuestras
vidas, todo lo que tenemos es nuestra atencin y nuestro tiempo. Cul sera la mejor manera
de invertir nuestro tiempo?

13:03
Gracias.
13:04
(Aplausos) Gracias.

13:17
Chris Anderson: Tristan, gracias. Qudate aqu un segundo. Primero que todo, gracias. S que
te pedimos que hicieras esta charla con muy poca antelacin y has tenido una semana bastante
estresante; compilando esto, as que gracias.Algunas personas que escuchan esto, podran
decir: "Lo que discutes es la adiccin y todas estas personas haciendo estas cosas," para ellos
es muy interesante. Todas estas decisiones de diseo han construido contenido de usuario,
que es increblemente interesante. El mundo es ms interesante que nunca. Qu hay de malo
en eso?

13:46
Tristan Harris: Creo que es muy interesante. Una forma de ver esto es si eres YouTube, por
ejemplo, quieres mostrar siempre el siguiente vdeo ms interesante, quieres mejorar en
sugerir ese siguiente vdeo, pero incluso si pudieras proponer el siguiente vdeo perfecto, que
todo el mundo querra ver, simplemente sera mejor y mejor en mantenerte enganchado a la
pantalla. Entonces, lo que falta en esa ecuacin es averiguar cules seran nuestros
lmites. Querras que YouTube supiera algo sobre, por ejemplo, quedarte dormido. El CEO de
Netflix hace poco dijo: "Nuestros mayores competidores son Facebook, YouTube y el
sueo." As que lo que necesitamos reconocer, es que la arquitectura humana es limitada y que
tenemos ciertos lmites o dimensiones de nuestras vidas, que queremos que sean honrados y
respetadosy la tecnologa podra ayudar a hacer eso.

14:28
(Aplausos)

14:30
CA: Quiero decir, podras hacer el caso de que parte del problema aqu, es que tenemos un
modelo ingenuo de la naturaleza humana? Mucho de esto se justifica en trminos de
preferencia humana, donde tenemos estos algoritmos, que hacen un trabajo increble de
optimizacin para la preferencia humana, pero qu preferencia? Estn las preferencias de
las cosas que realmente nos importan, - cuando pensamos en ellas - versus las preferencias de
lo que slo hacemos clic instintivamente. Si pudiramos implantar esa visin ms matizada de
la naturaleza humana en cada diseo, sera eso un paso adelante?

15:01
TH: Absolutamente. Creo que hoy da es como si bsicamente toda nuestra tecnologa, fuera
slo preguntarle a nuestro cerebro reptiliano: Cul es la mejor forma de lograr que hagas
impulsivamente la siguiente cosa ms pequea con tu tiempo, en vez de preguntarte: Cul
sera la mejor forma de invertir tu tiempo? Cul sera el cronograma perfecto que incluyera
algo para despus, o aqu en TED en tu ltimo da?

15:21
CA: As que, si Facebook y Google y todo el mundo nos dijeran primero: "Oye, quieres que
optimicemos tu cerebro reflexivo o tu cerebro lagarto? T eliges."

15:29
TH: Correcto. Eso sera una manera. S.

15:33
CA: Usaste la palabra "persuasibilidad," esa palabra me interesa, porque para m hay dos
clases diferentes de persuasin.Hay una persuasibilidad que estamos intentando ahora
mismo: Razonar, pensar y argumentar. Pero creo que ests hablando de otra clase, un tipo de
persuasin ms visceral; de ser persuadido sin siquiera saber que ests pensando.

15:51
TH: Exacto. La razn por la que me preocupo tanto por este problema, es porque estudi en el
Laboratorio de Tecnologa Persuasiva en Stanford, el cual ensea a la gente exactamente
estas tcnicas. Hay conferencias y talleres que ensean todas estas formas encubiertas, de
capturar la atencin de la gente y orquestar sus vidas. Y se debe a que la mayora de la gente
no sabe que eso existe, por eso esta conversacin es tan importante.

16:11
CA: Tristan, t y yo, ambos conocemos a muchas personas de todas estas compaas. De
hecho, hay muchos de ellos aqu en la sala y no s t, pero mi experiencia con ellos no es que
haya escasez de buena intencin. La gente quiere un mundo mejor. De hechos, ellos realmente
lo quieren. Y no creo que ests diciendo que sean personas malvadas. Es un sistema donde
estas consecuencias no deseadas, se han salido de control...

16:37
TH: por esta carrera por la atencin, s. Es la carrera clsica hasta el final, cuando tienes que
capturar la atencin y es muy tensa. La nica manera de obtener ms es ir ms bajo en el
tronco enceflico, para ir ms bajo en la indignacin y las emociones, para ir ms abajo en el
cerebro reptiliano.

16:51
CA: Bueno, muchas gracias por ayudarnos a todos a ser un poco ms sabios en esto.

16:54
Tristan Harris, gracias. TH: Muchas gracias.

16:57
(Aplausos)

You might also like