Platform Regulation Part I: Why Platform Regulation Is Both Necessary and Hard
Platform Regulation Part I: Why Platform Regulation Is Both Necessary and Hard
Platform Regulation Part I: Why Platform Regulation Is Both Necessary and Hard

    Get Involved Today

    This is the first blog post in a series on regulating digital platforms. You can view the full series hereHaz clic aquí para leer en español.

    As digital platforms have become increasingly important in our everyday lives, we’ve recognized that the need for some sort of regulatory oversight increases. In the past, we’ve talked about this in the context of privacy and what general sorts of due process rights dominant platforms owe their customers. Today, we make it clear that we have reached the point where we need sector-specific regulation focused on online digital platforms, not just application of existing antitrust or existing consumer protection laws. When platforms have become so central to our lives that a change in algorithm can dramatically crash third-party businesses, when social media plays such an important role in our lives that entire businesses exist to pump up your follower numbers, and when a multi-billion dollar industry exists for the sole purpose of helping businesses game search engine rankings, lawmakers need to stop talking hopefully about self-regulation and start putting in place enforceable rights to protect the public interest.

    That said, we need to recognize at the outset that a lot of things make it rather challenging to  figure out what kind of regulation actually makes sense in this space. Although Ecclesiastes assures us “there is nothing new under the sun,” digital platforms combine issues we’ve dealt with in electronic media (and elsewhere) in novel ways that make applying traditional solutions tricky. Before diving into the solution, therefore, we need to (a) define the problem, and (b) decide what kind of outcome we want to see.

    As Jean Tirole, the economist who won the Nobel Prize for defining two-sided markets, pointed out in this interview, unless you know what you’re doing and trying to accomplish, you can’t really know if you are addressing your concerns. Breaking up Facebook won’t solve the privacy problems, for example. Nor is it clear how you could prevent “baby Facebooks” or “baby Googles” from simply re-establishing their market dominance if we don’t have a clear understanding of the mechanisms of how they work. When we broke up AT&T, we could easily define the essential facility to be regulated (local networks) and separate out the market segments where we could have competition (e.g., long distance, “electronic publishing,” equipment manufacture). If Google’s big advantage is “search,” how exactly do you break that up? What is Facebook’s market anyway?

    It’s not that these questions don’t have answers. They do. But the big problem in Policyland is that people know what they don’t like and try to get rid of that one piece. This usually works about as well as Canute ordering back the tide. So before talking about solutions, or leaping into a debate over whether the Federal Communications Commission, the Federal Trade Commission, or some hypothetical new agency should have jurisdiction, let me run through some of the factors that we need to navigate.

    What Exactly Is a “Digital Platform” Anyway? How Are They Different From Anything Else?

    When we do sector-specific regulation (like telecommunications), we at least have some idea of what we are talking about, even if it is pretty broad. Section 1 of the Communications Act establishes the FCC to regulate “interstate and foreign commerce in communication by wire or radio.” Right away, I know I’m talking about the business of communication via electronic means. I’ve excluded heliographs and letters, and included a broad array of things from AM Radio to (until recently) broadband. This wildly divergent set of technologies all have one essential element in common — they deal with the critical human activity of communications. Likewise, the Food, Drug and Cosmetics Act creating the Food and Drug Administration may cover an awful lot of territory, but I can define fairly easily what is a food, what is a drug, or what is a cosmetic. Yes, there will always be fun edge cases (e.g., Are cigarettes a drug delivery system?), but for the most part we have a pretty good idea what we mean.

    Now we come to digital platforms. Generally, people know what they definitely want covered: Google, Facebook, Amazon, and maybe Twitter. What about Cloudflare? Reddit? Netflix? That stupid app that only said “yo”? Did Yo change into a platform once it expanded to let you attach links and things? Why or why not?

    It’s not enough to say “Google, we hates it precious!” We need to articulate exactly what it is we are trying to cover. Which brings us to the next problem.

    A Digital Platform Is Like an Elephant, Which Is Like a Snake, or a Rope, or Something.

    Intertwined with the question of what makes a digital platform is figuring out what these platforms do. When Lindsey Graham and Mark Zuckerberg sparred over whether or not Facebook had competitors, they each had a point. Zuckerberg argued that what Facebook does overlaps with a lot of different companies, but Graham pointed out that Facebook is unique in offering a service that combines a whole bunch of different functionalities. But the question goes deeper than market definitions. It goes to the goals we set for public policy.

    Traditionally, we could neatly divide activities into lines of business and determine what sort of policies would most likely promote the common good. For example, in the Communications Act, we generally had one set of public interest obligations associated with telecommunications and a different set for media. Certainly, we had (and continue to have) some overlap. We broadly care about competition and public safety in both telecommunications and mass media, for example. But traditionally, we have focused telecommunications policy on our five fundamental values of universal service, competition, consumer protection, network reliability, and public safety.

    By contrast, we have focused our media policy on promoting diverse sources of news and perspectives as critical to enabling our democratic system of government to function. We treat telecommunications as infrastructure and a public utility, spending billions of dollars to ensure that everyone in the country has affordable access. We have no policy of making sure that everyone has access to a cable or satellite provider — despite the important news and public safety content they provide.

    These differences inform the kind of regulation we impose to further our public policy goals. We have strict no interference/common carriage requirements on telecommunications. No one demands that mobile phone providers monitor the phone calls of everyone using their phone networks to block hate speech. No one has argued that Comcast or AT&T should cancel the phone service of Nazis. In fact, we have laws in place precisely to prevent such things. In exchange, we immunize common carriers from any liability for content of their customers’ speech. Again, no one proposes that Verizon Wireless should be liable for sex traffickers, or that Sprint should ensure that Russians trying to manipulate our elections don’t send texts.

    On the other hand, we explicitly prohibit treating broadcasters (or cable operators) as common carriers. But we make them liable for their editorial choices and require them to promote certain social policies such as providing educational material to children (and protecting them from ‘indecent’ content). We require broadcasters and cable operators to disclose when programming material is sponsored. We prohibit them from selling advertising to one political party’s federal candidates, but not others. And — at least until recently — we have sought to promote diversity of viewpoints by setting ownership limits well below those considered dangerous under antitrust law. To quote the departing Justice Kennedy: “Federal policy, however, has long favored preserving a multiplicity of broadcast outlets regardless of whether the conduct that threatens it is motivated by anticompetitive animus or rises to the level of an antitrust violation.”

    Digital platforms, depending on how broadly we define them, share elements of both straight-up telecommunications and mass media — as well as qualities not found in either. These platforms often combine both the one-to-one aspect of traditional telecommunications with the potentially vast reach of mass media. Even the largest conference call Public Knowledge could host is trivial compared to the number of people who could theoretically access this blog post (insert joke about our blog being one-to-one because we have so few readers here). But digital platforms add a new element in the mix by giving me access to other content through linking. Platforms may enable organizing — for positive or negative purposes — in ways that neither traditional telecommunications nor traditional media could make possible.

    But it gets even more complicated when we consider the vast array of other functions performed by online platforms that we instinctively group together. Is Amazon a retailer? A shopping mall for third-party vendors? All of the above? Video sharing sites and other platforms for exchanging content look more like public storage cubes than broadcasters in that they simply are a repository for someone else’s stuff. But we increasingly relate to them in the same way that we have related to traditional mass media. Sometimes. But other times not.

    Balancing Policy Objectives Makes for Messy Tradeoffs.

    Finally, we need to recognize that regulating platforms ultimately means a bunch of trade-offs. Everyone hates this. Everyone loves to talk about policy options as if my proposal is a stairway to heaven, and all other options are handcarts heading down the road paved with good intentions. Everyone wants to talk about this as “curbing greedy corporations” or “protecting innovation and free expression from ravening Socialists.” And, to be fair, sometimes the answers are pretty obvious. We can all agree that free speech survives just fine under laws that prevent false or deceptive advertising. But most times, we are talking about balancing trade-offs and looking to maximize the probability of good results while minimizing the possibility of bad results.

    To take just one obvious example, it is impossible to have social media platforms operate as common carriers while simultaneously policing their networks for hate speech. But that doesn’t mean our choices are binary. Somewhere between blocking a quote from the Declaration of Independence and helplessly standing by while hate groups organize online harassment campaigns lies some trade-off that protects most (but invariably not all) controversial speech while simultaneously preventing most (but not all) online harassment.

    But then we have trade-offs that are more economic or technical in nature. Take the question of “search neutrality.” The entire point of a search engine is to help organize things in useful ways. A search engine can’t be “neutral” in the same way a broadband network can be “neutral” because I don’t need my broadband provider to recommend websites or applications. But my typing “manage student loans without sobbing hysterically” into a search engine requires it to recommend websites or applications relevant to my request — in fact, presenting this information is exactly what I’m asking the search engine to do.

    At the same time, however, we can recognize how controlling internet search — whether by developing the algorithms of search engines or otherwise selecting for or discriminating against specific types of results, such as favoring affiliated content or discriminating against rival content or unpopular speech — has enormous implications for competition, as well as for other social policies. When we expand “search” to mean any sort of ordering and recommendation, such as how Facebook presents things in my timeline or how Amazon recommends products, we discover a new set of problems. Setting aside things we obviously want to disallow, such as secret experiments to manipulate our emotions, the very thing that makes it most effective can have negative social consequences. For example, should YouTube suggest related videos based on its algorithm when those videos lead to increasing radicalization? Should Facebook continue to show related news items, despite the fact that this re-enforces the “bubble effect” that many say is fragmenting our society? Should we make systems more annoying and less efficient in order to prevent addiction by design?

    Hard but Necessary.

    This is the point where the industry lobby and those ideologically opposed to regulation usually leap in and start talking about “regulatory humility” and “unintended consequences” and “first do no harm.” The problem is, to add to the cliché storm, “refusal to act is an action.” We are living in a world rapidly devolving into a set of highly concentrated digital platforms around which major aspects of our economy and our lives revolve. As the CEO of Cloudflare, Matthew Prince, eloquently put it after terminating service to Nazi Organization/Publication Der Stormer: “In a not-so-distant future, if we’re not there already, it may be that if you’re going to put content on the internet you’ll need to use a company with a giant network like Cloudflare, Google, Microsoft, Facebook, Amazon, or Alibaba.” Or, somewhat more directly: “Literally, I woke up in a bad mood and decided someone shouldn’t be allowed on the internet. No one should have that power.”

    Prince was talking specifically about policing speech, but the same is true about competition and consumer protection. No company should have the power to determine what business models are acceptable and which ones to block as potential competition. People should have confidence that protection of their privacy does not depend on the whims and best efforts of CEOs. Nor is this simply a question of size and market dominance. While the conversation until now has largely focused on the largest platforms, and while there are certainly concerns that apply only to dominant platforms, one of the critical aspects of sector-specific regulation is to identify when a public policy concern needs to apply to all providers regardless of size. For example, Reddit can in no way be considered “dominant,” since as measured by either subscribers or total social media traffic it does not even come close to Facebook’s market share. But if we are trying to determine the right policy for balancing content moderation vs. fears about censorship or concerns about the harm to innovation, then it doesn’t matter whether we’re talking about Facebook or Reddit or some fledgling service that doesn’t even exist.

    And yes, we should acknowledge that such regulation may raise the cost of doing business — although both experience and research studies tell us that these fears are greatly exaggerated. But, as noted above, balancing policy objectives makes for trade-offs. There is no doubt that health codes and fire safety codes raise the cost of business to emerging restaurants. It is also true that without health codes we get more cases of food poisoning and more fires. While we can, and should, debate the trade-offs and where to set the balance, the fact that a rule may impose cost is not an automatic showstopper in any rational policy discussion.

    In my next blog post, I will start trying to answer these questions, starting with the most basic one — what, exactly, are we talking about regulating?

    Regulación de plataformas – Primera parte: Por qué la regulación de plataformas resulta tan necesaria como difícil

    Serie sobre regulación de plataformas

    Esta es la primera publicación de la serie sobre la regulación de las plataformas digitales.

    Debido a que las plataformas digitales se han vuelto cada vez más importantes en nuestras vidas cotidianas, hemos notado que creció la necesidad de que exista algún tipo de supervisión regulatoria. En ocasiones anteriores, hablamos sobre esto en el contexto de la privacidad y, en general, sobre qué tipos de derechos de debido proceso les deben a sus clientes las plataformas dominantes. Hoy en día, es evidente que llegamos a un punto en el que necesitamos una regulación específica para el sector, concentrada en las plataformas digitales en línea, y no solo la aplicación de las leyes antimonopolio y de protección al consumidor ya existentes. Vivimos en un momento en el que las plataformas ocupan un lugar tan central en nuestras rutinas que un cambio de algoritmo puede destrozar drásticamente el negocio de un tercero, en el que las redes sociales juegan un rol tan importante en nuestras vidas que existen empresas exclusivamente dedicadas a aumentar la cantidad de seguidores de una cuenta, y en el que existe una industria de miles de millones de dólares solo con el propósito de ayudar a empresas en los rankings de los motores de búsqueda. Es por esto que los legisladores deberían dejar de hablar esperanzados sobre la autorregulación y comenzar a instaurar derechos aplicables para proteger el interés público.

    Habiendo dicho esto, debemos reconocer, en primer lugar, que muchos factores hacen que sea un desafío saber qué tipo de regulación tendría sentido en este contexto. Si bien Eclesiastés nos asegura que «no hay nada nuevo bajo el sol», las plataformas digitales combinan cuestiones en las que hemos trabajado en los medios electrónicos (y en otros sitios) de maneras nuevas, que hacen que resulte compleja la aplicación de soluciones tradicionales. Por lo tanto, antes de lanzarnos en la búsqueda de la solución, necesitamos: (a) delimitar el problema, y (b) decidir qué tipo de resultado deseamos.

    Tal y como lo señaló en esta entrevista Jean Tirole, el economista que ganó el Premio Nobel por definir los mercados de dos lados, a menos que uno sepa lo que está haciendo y lo que intenta conseguir, uno no puede saber a ciencia cierta si está abordando sus preocupaciones. Disolver Facebook no resolverá los problemas de privacidad, por ejemplo. Tampoco queda claro cómo evitar que nuevos Facebooks o nuevos Googles reestablezcan su dominio en el mercado si no entendemos claramente cómo funcionan. Cuando disolvimos AT&T, pudimos definir fácilmente el servicio esencial que debía ser regulado (las redes locales) y separar los segmentos del mercado donde podíamos tener competencia (por ejemplo, larga distancia, «publicaciones electrónicas», fabricación de equipos). Si la gran ventaja de Google es la «búsqueda», ¿cómo hacemos para disolverlo? A todo esto, ¿cuál es el mercado de Facebook?

    No es que estas preguntas no tengan respuestas. Las tienen. Sin embargo, el gran problema en la Tierra de las Políticas es que las personas saben qué no les gusta e intentan deshacerse solamente de esa parte. Por lo general, este método funciona tan bien como Canuto intentando hacer retroceder las olas. Entonces, antes de hablar de soluciones, o meternos de lleno en un debate sobre si debería tener jurisdicción la Comisión Federal de Comunicaciones, la Comisión Federal de Comercio, o alguna otra agencia hipotética nueva, repasemos algunos de los factores que debemos explorar.

    ¿Qué es exactamente una «plataforma digital»? ¿Cómo se diferencia de todo lo demás?

    Cuando regulamos un sector específico (como las telecomunicaciones), al menos tenemos una idea de lo que hablamos, incluso si es bastante amplia. La primera sección de la Ley de Comunicaciones establece que la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) debe regular «el comercio interestatal e internacional de la comunicación por cable y radio». Sabemos de inmediato que estamos hablando del negocio de la comunicación a través de medios electrónicos. Excluimos los heliógrafos y cartas, e incluimos una amplia gama de tecnologías que van desde la radio AM hasta la banda ancha (hasta hace poco). Este conjunto de tecnologías extremadamente diferentes entre sí tiene un elemento en común: todas abordan la actividad fundamental y humana de la comunicación. De la misma manera, la Ley de Alimentos, Medicamentos y Cosméticos que crea la Administración de Alimentos y Medicamentos puede cubrir un territorio increíblemente amplio, pero uno puede definir de una manera bastante fácil qué es un alimento, un medicamento, o un cosmético. Sí, siempre habrá casos periféricos (por ejemplo, ¿los cigarrillos son un sistema de liberación de drogas?), pero, a grandes rasgos, tenemos conocimientos sobre la cuestión.

    Y aquí entran las plataformas digitales. Por lo general, las personas saben qué quieren que esté cubierto a toda costa: Google, Facebook, Amazon, y quizás Twitter. ¿Qué tal Cloudflare? ¿Y Reddit? ¿Netflix? ¿Esa aplicación estúpida que solo decía «yo»? La aplicación Yo, ¿se convirtió en una plataforma cuando expandió sus características y permitió adjuntar enlaces y otros elementos? ¿Por qué? O, ¿por qué no?

    No basta con decir «¡Google, te odiamos por siempre!» Debemos articular exactamente lo que queremos cubrir. Lo que nos lleva al siguiente problema.

    Una plataforma digital es como un elefante, que es como una serpiente, o una soga, o algo así

    Con la pregunta sobre qué es una plataforma digital aparece la pregunta sobre qué hacen estas plataformas. Cuando Lindsey Graham y Mark Zuckerberg discutieron sobre si Facebook tenía competidores o no, los dos tuvieron razón hasta cierto punto. Zuckerberg argumentó que lo que hace Facebook se superpone con muchas otras empresas diferentes, pero Graham señaló que Facebook es único, ya que ofrece un servicio que combina una gran cantidad de funcionalidades diferentes. Sin embargo, la cuestión trasciende las definiciones del mercado: apunta a las metas que ponemos para las políticas públicas.

    Históricamente, hemos podido dividir de manera clara las actividades en diferentes líneas de negocios y determinar qué tipo de políticas promoverían mejor el bien común. A modo de ejemplo, en la Ley de Comunicaciones, teníamos generalmente un conjunto de obligaciones de interés público asociadas con las telecomunicaciones y otro conjunto diferente para los medios. Desde luego, había (y todavía hay) algunas superposiciones. Nos importa mucho la competencia y la seguridad pública tanto en las telecomunicaciones como en los medios de comunicación, por ejemplo. Sin embargo, tradicionalmente, concentramos las políticas de telecomunicaciones en nuestros cinco valores fundamentales de servicio universal, competencia, protección al consumidor, fiabilidad de la red, y seguridad pública.

    En cambio, en las políticas para los medios, nos enfocamos en promover como vitales las diversas fuentes de noticias y perspectivas para habilitar el funcionamiento de nuestro sistema democrático de gobierno. Consideramos que las telecomunicaciones son infraestructura y un servicio público, e invertimos miles de millones de dólares para asegurarnos de que todas las personas en el país tengan un acceso asequible a ellas. No contamos con una política que garantice que todos tengan acceso a un proveedor de cable o satélite —a pesar de que brindan noticias importantes y contenidos de seguridad pública.

    Estas diferencias le dan forma al tipo de regulación que imponemos para promover nuestros objetivos de políticas públicas. Contamos con estrictos requisitos de no interferencia/transporte común (common carriage, en inglés) para las telecomunicaciones. Nadie exige que los proveedores de servicios de telefonía móvil monitoreen las llamadas telefónicas de todas las personas que utilizan sus redes telefónicas para bloquear el discurso del odio. Nadie dice que Comcast o AT&T deberían cancelarles el servicio telefónico a los nazis. De hecho, contamos con leyes que precisamente están destinadas a evitar estas cuestiones. En cambio, inmunizamos a los common carriers (proveedores de servicios de transporte) para que no deban responsabilizarse del contenido del discurso de sus clientes. Una vez más, nadie propone que Verizon Wireless tenga que ser responsable de los traficantes sexuales, o que Sprint deba asegurarse de que los rusos que intentan manipular las elecciones no envíen mensajes de texto.

    Por otro lado, prohibimos explícitamente que las emisoras (u operadoras de cable) reciban el mismo trato que los common carriers. No obstante, los hacemos responsables de sus elecciones editoriales y les exigimos que promuevan ciertos tipos de políticas sociales como el material educativo para los niños (que a su vez los protege de contenidos «indecentes»). Exigimos que las emisoras y las operadoras de cable revelen cuándo el material de programación está patrocinado. Les prohibimos vender publicidades a los candidatos federales de un partido político, pero no a otros. Y —al menos hasta hace poco— hemos intentado promover la diversidad de opiniones imponiendo límites de propiedad muy por debajo de los que se consideran peligrosos en la ley antimonopolio. Para citar al saliente Juez Kennedy,: «La política federal, sin embargo, lleva tiempo favoreciendo la preservación de la multiplicidad de emisoras, independientemente de si la conducta que la amenaza está motivada por una animosidad anticompetitiva o se eleva al nivel de una violación de la ley antimonopolio».

    Las plataformas digitales, dependiendo de cuán amplia sea su definición, comparten elementos tanto de las telecomunicaciones como de los medios de comunicación —así como también cualidades que no se encuentran en ninguna de las dos. Estas plataformas a menudo combinan el aspecto individualizado de las telecomunicaciones tradicionales con el alcance potencialmente inmenso de los medios de comunicación. Hasta la teleconferencia más grande organizada por Public Knowledge es trivial en comparación con la cantidad de personas que, teóricamente, podrían tener acceso a esta publicación (aquí iría una broma sobre que nuestro blog es individualizado porque tenemos muy pocos lectores en este medio). Pero las plataformas digitales añaden un nuevo elemento a la mezcla al brindar acceso a otros contenidos mediante enlaces. Las plataformas pueden habilitar la organización —con propósitos positivos o negativos— de maneras en que ni las telecomunicaciones ni los medios tradicionales podrían hacerlo.

    Pero se complica aún más cuando consideramos la amplia gama de otras funciones que desempeñan las plataformas en línea que instintivamente metemos en la misma bolsa. ¿Amazon es una distribuidora? ¿Un centro comercial para vendedores terceros? ¿Todas las anteriores? Los sitios para compartir videos y otras plataformas de intercambio de contenido se asemejan más a cubículos de almacenamiento público que a emisoras, en el sentido de que son simples repositorios para que alguien más guarde sus cosas. Pero nos relacionamos con ellas cada vez más como nos relacionamos con los medios de comunicación. Algunas veces. Aunque otras veces no es así.

    Equilibrar los objetivos de las políticas resulta en términos medios complicados

    Finalmente, hay que reconocer que regular las plataformas implica, en definitiva, que habrá una gran cantidad de soluciones intermedias. A nadie le gusta esto. A todos nos gusta hablar de las opciones políticas como si mi propuesta fuera una escalera al cielo, y todas las otras opciones fueran el camino al infierno, pavimentado con buenas intenciones. Todos queremos referirnos a esto como «el freno a las corporaciones ambiciosas» o «la protección de la innovación y la libertad de expresión ante los voraces socialistas». Y, para ser sincero, a veces las respuestas son bastante obvias. Podemos estar de acuerdo en que la libertad de expresión sobrevive tranquilamente bajo las leyes que previenen la publicidad falsa o engañosa. Sin embargo, la mayoría de las veces, hablamos de equilibrar los términos medios, y buscamos maximizar la probabilidad de obtener buenos resultados y minimizar las probabilidades de los malos.

    Un ejemplo obvio es el hecho de que es imposible hacer que las plataformas de redes sociales operen como common carriers mientras vigilamos sus redes en busca de discurso del odio. De todos modos, esto no quiere decir que nuestras opciones sean binarias. Entre bloquear una cita de la Declaración de la Independencia y quedarse de brazos cruzados mientras grupos de odio organizan campañas de acoso en línea yace el término medio, que protege la mayor parte (pero, invariablemente, no la totalidad) de los discursos controvertidos al tiempo que previene la mayor parte (pero no la totalidad) del acoso en línea.

    Pero luego tenemos algunos términos medios que son más económicos o técnicos por naturaleza. Tomemos la «neutralidad de las búsquedas». El propósito ulterior de un motor de búsqueda es ayudarnos a organizar el contenido de una manera útil. Un motor de búsqueda no puede ser «neutral» de la misma manera que puede ser «neutral» una red de banda ancha, porque no necesitamos que nuestro proveedor de banda ancha nos recomiende sitios web o aplicaciones. Pero escribir «cómo lidiar con los préstamos estudiantiles sin llorar a cántaros» en la barra de búsqueda exige que el motor recomiende sitios web o aplicaciones que sean relevantes para ese pedido. De hecho, presentar esa información es exactamente lo que le pedimos al buscador que haga.

    Al mismo tiempo, sin embargo, podemos reconocer que controlar la búsqueda en Internet —ya sea mediante el desarrollo de algoritmos de motores de búsqueda o la preferencia o rechazo de tipos específicos de resultados, como favorecer contenido afiliado o discriminar contenido enemigo o discursos poco populares— conlleva consecuencias enormes para la competencia, así como también para otras políticas sociales. Cuando expandimos el significado de «búsqueda» a cualquier tipo de orden o recomendación, como la manera en que Facebook presenta el contenido en el inicio o la manera en que Amazon recomienda sus productos, descubrimos otros problemas nuevos. Dejando de lado algunas cosas que obviamente queremos prohibir, como los experimentos secretos para manipular nuestras emociones, la característica que haga más efectiva la búsqueda puede traer consecuencias sociales negativas. Por ejemplo, ¿YouTube debería sugerir videos relacionados en base a su algoritmo cuando dichos videos lleven a una creciente radicalización? ¿Facebook debería seguir mostrando noticias relacionadas, a pesar de que refuerza el «efecto burbuja» al que muchos culpan de fragmentar nuestra sociedad? ¿Deberíamos hacer que los sistemas sean más incómodos y menos eficientes con el objetivo de evitar la adicción por diseño?

    Difícil pero necesario

    Este es el momento en el que aparecen el lobby de la industria y aquellos que están ideológicamente en contra de la regulación y hablan de la «humildad regulatoria» y las «consecuencias no deseadas» y de que «lo primero es no perjudicar». El problema es, para seguir con los clichés, que «no actuar es en sí una acción». Vivimos en un mundo que está transformándose rápidamente en un conjunto de plataformas digitales sumamente concentradas, e importantes aspectos de nuestra economía y nuestras vidas giran en torno a ellas. Tras suspender el servicio a la Organización/Publicación nazi Der Stormer, Matthew Prince, el Director Ejecutivo de Cloudflare, señaló elocuentemente: «En un futuro no muy lejano, si es que todavía no llegamos, puede que cuando quieras subir contenido a Internet necesites usar una empresa con una red gigante, como Cloudflare, Google, Microsoft, Facebook, Amazon, o Alibaba». O, de una manera un poco más directa: «Literalmente, me desperté de mal humor y decidí que alguien no debería tener permitido estar en Internet. Nadie debería tener este poder».

    Prince se refería específicamente a la vigilancia de los discursos, pero ocurre lo mismo con respecto a la protección al consumidor y la competencia. Ninguna empresa debería poder determinar qué modelos de negocio son aceptables y cuáles deberían bloquearse por representar una potencial competencia. Las personas deberían poder confiar en que la protección de su privacidad no depende de los caprichos y mejores esfuerzos de los directores ejecutivos. Tampoco es simplemente una cuestión de tamaño o dominio del mercado. Aunque la conversación hasta el momento se centró en las plataformas más grandes, y si bien quedan muchas preocupaciones que aplican solamente a las plataformas dominantes, uno de los aspectos críticos de la regulación para sectores específicos es identificar cuándo una política pública debe aplicarse a todos los proveedores, sin importar su tamaño. Por ejemplo, Reddit no puede ser considerado, bajo ningún punto de vista, como «dominante», ya que al medir la cantidad de suscriptores o el total del tráfico de redes sociales, ni siquiera se aproxima a la participación de mercado de Facebook. No obstante, si intentamos determinar la política correcta para equilibrar la moderación de contenido y los miedos con respecto a la censura o las preocupaciones en cuanto al daño a la innovación, entonces, no importa si hablamos de Facebook o Reddit o algún servicio incipiente que ni siquiera existe.

    Y, por supuesto, deberíamos admitir que dicha regulación puede elevar el costo de hacer negocios —aunque tanto la experiencia como las investigaciones indican que estos miedos están muy exacerbados. Aun así, como dijimos anteriormente, equilibrar los objetivos de las políticas resulta en términos medios. No quedan dudas de que los códigos de sanidad y seguridad contra incendios elevan el costo de los negocios de restaurantes nuevos. También es cierto que sin esos códigos de sanidad existen más casos de intoxicación alimentaria y más incendios. Si bien podemos y debemos debatir esos términos medios y dónde establecer el equilibrio, el hecho de que una norma pueda imponer costos no es un furor automático en ningún debate racional de políticas.

    En la siguiente publicación, intentaré responder algunas de estas preguntas, empezando por la más básica: Específicamente, ¿qué es lo que queremos regular?