Castro Videla y Maqueda: Un estudio constitucional sobre los controles de precios y la producción

Muy gentilmente, Santiago Castro Videla y Santiago Maqueda Fourcade, me han regalado un ejemplar de su libro “Tratado de la regulación para el abastecimiento: estudio constitucional sobre los controles de precios y la producción”, publicado por la Editorial Ábaco de Rodolfo Depalma. No es solamente un libro sobre la Ley de Abastecimiento sino mucho más, es un libro sobre las regulaciones y, en particular, los controles de precios, desde una perspectiva filosófica, económica y jurídica.

Así comienza la Introducción:

“En uno de sus viajes a París, el gran pensador francés Frédéric BASTIAT (1801-1850) se maravillaba de que hubiera allí millones de seres humanos que, de no poder acceder diariamente a provisiones de todo tipo, morirían en cuestión de días . Lo que más le sorprendía era que no existiera ningún planificador central responsable por ese abastecimiento, sino que éste ocurriera espontáneamente. “¿Cómo es que cada día se asegura traer a este gigante mercado justo lo que es necesario, ni más ni menos?” , se preguntaba. Pero inmediatamente se respondía: son los libres intercambios, guiados por el propio interés, los que constituyen el “secreto poder que gobierna la sorprendente regularidad de tan complicados movimientos, una regularidad en la que todos tienen una fe implícita, aunque su prosperidad y su misma vida dependa de ella” . Esta idea económica fundamental –de que el propio interés de las personas, reflejado en los intercambios voluntarios de derechos de propiedad, es lo que garantiza el abastecimiento de los bienes a toda la sociedad– ya había sido enunciada por el escocés Adam SMITH (1723-1790) en su famosa frase: “no es de la benevolencia del carnicero, del cervecero, o del panadero que esperamos nuestra cena, sino de su propio interés” .

El reconocimiento de este fenómeno de la libre cooperación social, unido a una mayor conciencia de la libertad y dignidad individual, fue lo que llevó a que el constitucionalismo moderno consagrara una amplia protección de los derechos de propiedad y las libertades económicas. Fue también aquella la filosofía que inspiró la Constitución nacional de 1853 y permitió que esta fuese un instrumento jurídico excepcional para la consolidación y prosperidad del país. En efecto, teniendo como fin “promover el bienestar general” y “asegurar los beneficios de la libertad” , la Constitución otorgó una amplísima protección a las libertades económicas y las distintas formas de propiedad, a la vez que prohibió a los gobiernos intervenir en acciones que no ofendieran el orden, la moral pública y los derechos de terceros . Y los beneficios de esas libertades no se harían esperar: en cuestión de décadas, la República Argentina pasaría a ser uno de los países con mayor riqueza por habitante del mundo .

Sin embargo, iniciado el siglo XX surgirían en el mundo diversas doctrinas políticas que diferían de la adoptada por nuestra Constitución. Comunismos, fascismos, nazismos y otras variaciones del socialismo se proponían en distintos países como formas de lograr una mayor riqueza y su justa distribución social. Y ello siempre con una nota común: que las decisiones económicas de las personas, especialmente aquellas relacionadas con la producción, el ahorro y la inversión, fuesen tomadas coercitivamente por órganos estatales centralizados. La Primera Guerra Mundial y la depresión de la década de los años 30, esta última fomentada por las manipulaciones estatales en el mercado monetario y financiero, darían un motivo adicional para que los gobiernos empezaran, con mayor o menor intensidad, a intervenir en la toma de decisiones económicas, estableciendo nuevas y mayores regulaciones económicas.”

FIEL y la regulación de los servicios públicos en las últimas décadas: ¿privatización o estatización?

Se ha dado a conocer en estos días, el que debe ser el estudio más profundo y comprehensivo sobre el estado de los servicios públicos en la Argentina. Es una publicación de FIEL (www.fiel.org.ar) y su autor es Santiago Urbiztondo, seguramente el economista argentino con más conocimiento sobre esta área específica. El título del trabajo es “La regulación de los servicios públicos en Argentina, 2003-2015: Lógica y balance de tres períodos presidenciales bajo un mismo signo político”. El documento aparece comentado en el Boletín de FIEL, donde hay también un link para acceder a él: http://www.fiel.org/publicaciones/FIEL_NEWS/FIEL_NEWS_1457643014018.pdf

Ahora bien, más que el análisis puntual de lo ocurrido, me interesaría discutir sus fundamentos. Comienza la introducción con este párrafo:

“La historia económica argentina reciente está caracterizada por la aplicación de criterios regulatorios contradictorios a lo largo del tiempo, que han ganado adeptos en dos categorías relativamente extremas en relación a cuál es la forma en que el Estado debe intervenir en el funcionamiento del proceso económico. Las opciones del Estado omnisciente (interventor) y el Estado ausente (“laissez faire”) han contado con distinto grado de apoyo en distintos contextos históricos –económicos, políticos y culturales–, típicamente en base a argumentos superficiales o primordialmente ideológicos. Sin embargo, el análisis económico marca claramente que el debate en torno a cómo puede y debe intervenir el Estado en la economía es central para adoptar una posición más o menos cercana a alguno de esos extremos, y que ésta no tiene porqué ser la misma en distintos ámbitos o aplicaciones: la consistencia en el análisis económico no necesariamente conduce a recomendar la privatización o la estatización de todas las empresas de servicios públicos en cualquier circunstancia, sino –casi seguramente– a adaptar la recomendación al contexto específico en que se vaya a aplicar; puede que lo más apropiado sea privatizar, o por el contrario estatizar, una misma empresa o servicio en distintas circunstancias históricas, puede ser conveniente privatizar una empresa y estatizar otra en un mismo contexto histórico, etc.”

Hay muchas cosas que algunos querrán discutir, tales como si hubo alguna instancia de “Estado ausente” en los 90s y si se puede caracterizar esos años como de ‘laissez faire’’. No es lo que más me interesa sino la mención a que el problema que plantea la provisión de servicios públicos sería meramente “contingente”; esto es, sujeto a las circunstancias de tiempo y lugar, las que podrían indicar una cosa en un momento, y otra cosa en otro.

En el fondo, este argumento implica que la teoría económica no tiene nada que decir, o tiene poco. Siendo que las circunstancias son determinantes, en realidad todo el análisis termina siendo histórico. Esto recuerda el debate de Carl Menger con los historicistas alemanes, quienes presentaban un punto similar y despreciaban la teoría.

Sin embargo, esto no es así en este caso. El trabajo presenta una teoría, ya que no habría otra forma de interpretar la realidad que a la luz de ella y hace énfasis en la claridad de los contratos que guíen la conducta de empresarios, en el sector privado, o funcionarios, en el público. El punto que voy a presentar aquí es que esa teoría está incompleta, y que, de completarse, puede resolver el tema del primer párrafo, determinando teóricamente la superioridad de un arreglo institucional (el mercado libre) sobre otro (el mercado regulado).

Al respecto dice:

“En tal sentido, si bien la cuestión sobre la provisión pública o privada de servicios públicos de infraestructura (energía, transporte público, saneamiento, telecomunicaciones) ha motivado fuertes debates académicos y políticos en los países occidentales, la discusión dicotómica generalizada es inevitablemente superficial y errónea. Tanto bajo la provisión pública como la provisión privada de servicios públicos, siempre intervienen seres humanos –agentes económicos privados por definición al ser individuos libres– que están sujetos a contratos de distinta naturaleza que moldean sus incentivos y provocan distintas conductas y por ende distintos resultados. Por lo tanto, es en el análisis de esos contratos e incentivos donde debe juzgarse la calidad de cada modelo específico, llámense de provisión pública o de provisión privada. En esta materia, los fracasos de la provisión privada no dejan de ser fracasos del Estado, de igual forma que los fracasos del Estado no dejan de ser  responsabilidad de toda la ciudadanía, y en particular de los agentes económicos (privados) intervinientes.”

Pero no es solamente en los contratos e incentivos con lo que debemos juzgar la calidad de cada modelo. Además de eso hay que considerar la generación y uso de conocimiento. Este es un tema que se planteó por primera en el debate sobre el cálculo económico en el socialismo y que luego desarrollara Hayek en su famoso artículo “El uso del conocimiento en la sociedad”.

En esencia, el problema del planificador, y del regulador de servicios públicos, además de los incentivos es la falta de información y conocimiento, ante la inexistencia de precios. Ante tales circunstancias (habría que desarrollar este tema mucho más, pero no hay espacio aquí), el mercado genera y utiliza mucho más el conocimiento que se encuentra disperso entre todos los participantes en el mercado, conocimiento que es, sobre todo, de las circunstancias de ‘tiempo y lugar’, que no pueden transmitirse formalmente. Mientras tanto, el regulador sólo cuenta con conocimiento de tipo ‘técnico’, pero alejado de las preferencias de los dueños de los recursos y de los consumidores. Esto, y no es ideología, es lo que permite afirmar la superioridad de la asignación de recursos a través del mercado por sobre la asignación vía regulación.

Bootlegers and Baptists; Atorrantes e inocentes colaboran para obtener regulaciones favorables

En muchas políticas regulatorias confluyen intereses diversos para promoverlas. Dwight Lee escribe un artículo al respecto en la revista Regulation del Cato Institute, con el título: ”¿Necesita la libertad de ‘contrabandistas’? http://object.cato.org/sites/cato.org/files/serials/files/regulation/2015/6/regulation-v38n2-3.pdf

Toma para ello el título que pusiera a su investigación y libro, Bruce Yandle, en inglés: “Bootlegers and Baptists”, algo así como decir “atorrantes e inocentes”. Esto explica Lee:

“El profesor de Clemson University (ahora afiliado el Mercatus Center de George Mason University), Bruce Yandle introdujo primero la metáfora de Bootlegers and Baptists, para explicar cómo distintas motivaciones se complementan entre sí para obtener la aprobación de ciertas regulaciones gubernamentales. Bootlegers y Baptists representan a grupos que explícita o implícitamente  trabajan juntos para obtener legislación que ambos favorecen, pese a tener muy diferentes motivos.

Bootlegers

 

La terminología de Yandle se basa en reales Contrabandistas y Bautistas, quienes trabajaron juntos para que se prohíba la venta de alcohol los días Domingo. La motivación de los Contrabandistas era reducir la competencia de la oferta legal de alcohol, mientras que la de los Bautistas era lo que consideraban un pecaminoso consumo de alcohol el día del Señor. En general, los Contrabandistas tienen un fuerte interés financiero en la aprobación de esa legislación, mientras que los Bautistas la favorecen por lo que entienden son razones nobles que se extienden más allá del interés propio.

La importancia para los Contrabandistas resulta de estar organizados alrededor de un interés particular que puede ser aumentado influyendo en el proceso legislativo. Así, son persistentes y enfocados en la acción política donde típicamente superan a los Bautistas, quienes normalmente están menos organizados y más ocupados con intenciones nobles más que detalles legislativos. Mientras que la persistencia y concentración de los Contrabandistas es importante para que la legislación sea aprobada, son más exitosos cuando su estrecho interés particular se esconde detrás de lo que se ve como una plausible preocupación por el interés público. Los Bautistas proveen esa preocupación.

Si bien es posible que se apruebe legislación sólo con la influencia política de los Contrabandistas, o de los Bautistas, es menos probable. Pero si un grupo debe ir sólo, los Contrabandistas probablemente serán más exitosos que los Bautistas. Como Yandle y su nieto, el economista de Johnson & Wales University, Adam Smith (sic!), explican en su libro Bootlegers and Baptists de 2014: “Las apelaciones morales a través del proceso político, sin que sean acompañadas de beneficiarios financieros escondidos,  son con un barco a vela sin viento”.

La evolución de la distribución de ingresos: el papel de la educación, para crear desigualdad o reducirla

El último premio Nobel en Economía, Angus Deaton, comenta en su libro The Great Escape, las causas de la desigualdad de ingresos y el papel de una educación “flexible”:

“La distribución del ingreso no puede reducirse a un solo mecanismo, tal como la oferta y la demanda en el mercado laboral, ni puede ser medida por un simple indicador como el coeficiente de Gini. Es el resultado de muchos procesos actuando en conjunto, como la historia, el mercado, la política, y la demografía.

Deaton

Jan Tinbergen, uno de los dos economistas que compartió el primer Premio Nobel en Economía, vio a la evolución de la distribución del ingreso no como podría haberse visto en el pasado, como una batalla entre el trabajo y el capital, sino como una carrera entre el desarrollo tecnológico y el avance en la educación… La tecnología utilizada en el trabajo requiere habilidades y entrenamiento o tal vez solo la adaptabilidad que llega con una buena educación general. Si la educación de los trabajadores se queda atrás de lo que pide el mercado, el precio de la educación subirá, y la desigualdad aumenta. Cuando la educación va adelante, por ejemplo cuando la Guerra de Vietnam llevó a muchos jóvenes a la universidad que de otra forma no hubieran ido –la oferta de habilidades aumentó y su precio, la prima por educación universitaria, cayó, reduciendo la desigualdad de salarios.

Durante casi todo el siglo pasado, los norteamericanos han estado adquiriendo más educación, por lo que la oferta de habilidades en el mercado laboral ha aumentado. Si nada más ocurriera, esta cadena de eventos habría reducido el valor de la educación y la brecha entre quienes tienen un título y quienes no. Sin embargo, la brecha ha aumentado, particularmente rápido desde fines de los 70s. Cuando el precio de algo sube pese a que su oferta aumentó, sabemos que la demanda ha de estar aumentando más rápido. Los economistas atribuyen este aumento al continuo aumento de las habilidades requeridas en el trabajo por las nuevas tecnologías de la información. Creen que la aceleración del progreso basado en la tecnología en los últimos treinta años es el principal motor de la creciente desigualdad en los ingresos. La creciente prima de una educación universitaria es la forma con que el mercado le dice a la gente joven la cambiante tecnología hace más y más valioso ir a la universidad, y el crecimiento en el nivel promedio de la educación muestra que la gente ha estado prestando atención.

Los rápidos cambios en la forma en que se usan las computadoras, Internet, y la rápida disponibilidad de información han creado una demanda acelerada de aquellos que pueden usar esa información en la toma de decisiones y en los negocios, y, al menos desde fines de los 70s, la educación no ha respondido lo suficiente. Por supuesto, esta tendencia puede no continuar para siempre. Si el sistema educativo se vuelve lo suficientemente flexible para producir las nuevas habilidades tan rápido como su necesidad crece, el aumento de la desigualdad eventualmente llegará a su fin.”

Fallas de Mercado, competencia imperfecta, captura de los reguladores e imposibilidad del cálculo

Con los alumnos de OMMA Madrid vemos el Cap. 3 de El Foro y El Bazar donde se analizan las distintas políticas públicas sugeridas para resolver problemas de ‘fallas de mercado’. Consideramos allí los aportes de la “teoría de la regulación’, y la extensión a ese campo del fracaso del cálculo económico en el socialismo:

 Y pese a lo interesante de todas estas teorías, que describen los procesos políticos que llevan a la implementación de regulaciones y al “control” del ente regulador por los mismos intereses que supuestamente han de ser regulados, lo cierto es que existe un problema todavía mayor: la posibilidad misma de que el regulador pueda cumplir con la tarea que se le ha encomendado.

Pese a la relativa novedad de todas estas cuestiones (los trabajos de Stigler, Peltzman y Posner pertenecen a la década de los años 70), lo cierto es que la cuestión básica por considerar ya había sido tratada en la década del 20 cuando Ludwig von Mises (1881-1973) demostró la imposibilidad teórica de realizar la planificación en una economía socialista. Y si bien los argumentos de Mises se refieren a la planificación socialista y no a la regulación, se pueden extender  a esta misma circunstancia con las salvedades del caso.

Para von Mises (1949), el elemento fundamental del socialismo era la propiedad colectiva de los medios de producción; de esto se desprende que no existe un mercado para esos factores, ya que sin propiedad privada no puede haber intercambios entre sus legítimos propietarios, y sin intercambios no puede haber relaciones relativas entre factores, esto es, precios. Ésta es, por ejemplo, la situación en la que se encuentra la propiedad del espectro electromagnético, las frecuencias por las que se transmiten señales de radio, televisión o telefonía celular entre otras cosas. Este es un «medio de producción» de propiedad estatal. Mises señaló, en su momento, la dificultad intrínseca de la planificación, ya que ante la ausencia de precios los planificadores no tienen términos de referencia sobre la importancia económica relativa de cada bien o servicio para un uso alternativo. En nuestro caso, el uso de una frecuencia radioeléctrica para transmisión de radio FM o telefonía celular no puede ser valorado económicamente porque no existen precios como para poder hacerlo.

Según Mises, los planificadores socialistas no pueden saber si la asignación de un recurso para un determinado fin es más o menos deseable que la de otro. No es de extrañar que en la realidad los funcionarios de los burós planificadores en los países socialistas tomaran como referencia los precios de las economías de mercado. No obstante ello, como los precios varían constantemente reflejando las preferencias de los consumidores o las disponibilidades de la oferta, la planificación nunca podía modificarse para copiar la modificación instantánea que el mercado provee. Finalmente, las malasignaciones explican el colapso del sistema. En el caso de las regulaciones, el planificador utilizará otros criterios para la asignación, muchas veces “políticos” y, por cierto, conflictivos. 

El proceso competitivo del mercado es necesario, por un lado, para movilizar el conocimiento disponible, y por otro, para generar el descubrimiento de nuevas oportunidades que hasta entonces no se hayan descubierto. La intervención gubernamental, entonces, interfiere en este proceso de descubrimiento. 

 

En definitiva, la acción del ente regulador interfiere con el proceso de mercado, y como no le es posible obtener la información necesaria para cumplir su tarea, debe depender para ello de lo que le provean los mismos sectores regulados. Termina así siendo cautivo de sus propios intereses. Por otro lado, desvía la atención de los emprendedores hacia su propio interés e impide el descubrimiento de nuevas oportunidades en beneficio de los consumidores.

Tomemos el caso del monopolio natural. Si en determinado momento hay un solo proveedor de servicios de comunicaciones y no existen restricciones para el ingreso de competidores, esto significa que el mencionado proveedor satisface las necesidades de la mejor forma posible. El mecanismo de descubrimiento de nuevas oportunidades (nuevas tecnologías, nuevos servicios) se encuentra en funcionamiento y cualquier descuido del proveedor al ofrecer la última tecnología o precios adecuados será aprovechado por otros para hacerlo y minar así su condición monopólica.

Se arguye contra ello que los costos de ingreso son muy elevados en este sector. Pero lo cierto es que estos costos existen en todas las actividades, y esto no ha frenado la competencia en ellas. Por el contrario, los mismos costos de ingreso elevados desatan la creatividad para estudiar su reducción. Por otra parte, con el avance tecnológico y la eliminación de las áreas monopólicas, la competencia puede ser inmediata.

Voy al médico. Veo su diploma en la pared. ¿Le cuento sobre el ‘cartel’ que genera el licenciamiento?

Vengo del médico. Mientras esperaba a ser atendido miraba su diploma colgado en la pared, y una serie de certificados de asistencia a distintos cursos en su especialidad. Curiosamente, también leía un artículo titulado “Beyond Medical Licensure”, de Shirley Svorny, profesora de economía de California State University y académica adjunta del Cato: http://object.cato.org/sites/cato.org/files/serials/files/regulation/2015/3/regulation-v38n1-6.pdf

Comenta:

“Quienes apoyan el licenciamiento de los profesionales médicos enfatizan la presencia de asimetrías de información entre pacientes y médicos. El economista George Ackerlof este fallo de mercado en un artículo famoso de 1970 publicado en el Quarterly Journal of Economics, sosteniendo que la regulación gubernamental podría ser apropiada en situaciones donde los consumidores están en desventaja informacional en relación a quienes venden el servicio. Aunque no consideró los incentivos que resultan de la responsabilidad legal, identificó al nombre-marca y a la certificación como instituciones importantes que pueden resolver la incertidumbre respecto a la calidad. Señaló que los mercados educativos y laborales utilizan nombres y marcas para guiar a los empleadores y a los consumidores.”

“En lugar de “colegios” de profesionales aprobados por los gobiernos, los hospitales deciden, por ejemplo, quien practicará neurocirugía. Los miembros del staff de un hospital privado analizan las credenciales y determinan exactamente lo que cada individuo puede hacer. Verifican y evalúan la educación, habilidades, experiencia, historia de mala praxis y la competencia de cada profesional médico antes de realizar ciertas tareas. Las empresas dueñas de seguros médicos (HMOs en Estados Unidos) realizan procedimientos similares, verificando una amplia gama de información cuando establecen redes o paneles de médicos con los que sus pacientes se pueden atender. Hacen esto porque pueden ser considerados responsables de algún error que cometa algún proveedor acreditado, y porque su reputación es importante.”

“Las empresas que aseguran a los médicos contra riesgos de mala praxis también los supervisan. Evalúan a los médicos cada año nuevamente considerando su educación, habilidades, historia de mala praxis y competencia. Pueden denegar la cobertura para ciertos procedimientos si es necesario, o denegarla totalmente.”

“En lugar de controlar a los médicos, el aparato de “licencia” provee un camino para la influencia de los profesionales que ha sido utilizado para restringir la competencia y frenar la innovación en la provisión de cuidado médico. Solamente en estados como Alaska donde escasea el servicio médico en las áreas rurales se han dejado de lado los intereses médicos que limitan la competencia para experimentar con nuevas formas de cuidado. La buena noticia es que, liberada de esas restricciones, la innovación puede reducir costos y mejorar el acceso sin un efecto aparente en la calidad. Es una situación win-win para todos salvo para los médicos que quieren proteger su campo tradicional.”

“Las similitudes entre las acciones de las agencias estatales de licenciamiento y un cartel son llamativas. Las regulaciones gubernamentales facilitan el tipo de restricción a la entrada que un cartel privado tendría problemas en imponer. Dictando el nivel adecuado de entrenamiento las regulaciones estatales benefician a los médicos licenciados a expensas de los consumidores. El aparato regulatorio también permite que grupos de médicos políticamente influyentes limiten el ámbito de práctica de profesionales no médicos.”

“El licenciamiento estatal funciona mal para proteger pacientes, si es que lo hace. Es común encontrar médicos licenciados y con problemas de alcohol seguir practicando mientras participan de un programa de tratamiento aprobado. Pocos profesionales médicos son sancionados por las agencias de control. En realidad, la mayoría de los que están catalogados como de alto riesgo por las empresas de seguros de profesionales médicos jamás han sido sancionados por esas agencias. Una estimación señala que solo un cuarto de los médicos en el mercado asegurador de alto riesgo han sido alguna vez sancionados por las agencias en toda su carrera. La buena noticia para los pacientes es que los profesionales que no obtienen seguro contra mala praxis no podrán acceder a la práctica en hospitales y serán excluidos de redes y paneles.”

Me llama el médico para atenderme…, por las dudas no le comento el artículo.

Mientras discuten la intervención a la AFSCA, veamos cómo asignaron propiedad otros países (IV)

¿Cómo se podría implementar un sistema de derechos de propiedad en las frecuencias del espectro electromagnético? Sería necesario seguir una serie de pasos:

  1. Como se comentara, la asignación de segmentos de frecuencias para determinados usos es realizada por la Unión Internacional de Telecomunicaciones. Por tratarse de un convenio internacional sobre el que un gobierno no puede imponer su voluntad, sería necesario seguir las asignaciones allí efectuadas con las siguientes consideraciones:
  1. plantear el problema de la asignación burocrática de frecuencias y proponer el desarrollo de derechos de propiedad;
  2. solicitar modificaciones a la asignación en la medida en que el funcionamiento del mercado así lo vaya mostrando.
  1. En materia local, el gobierno nacional tiene soberanía como para decidir la forma de asignar frecuencias, por lo que se definiría el mecanismo de asignación de derechos de propiedad dentro de los segmentos asignados por la UIT. Al respecto se presentan dos situaciones diferentes: las frecuencias que ya han sido asignadas a determinados usuarios y las que se encuentran libres.
  1. Con respecto a las primeras, éstas son por un tiempo limitado, por lo que se presentan las siguientes alternativas:
  2. a) esperar hasta el final de la concesión y licitar la venta de la frecuencia respectiva, o
  3. b) llegar a un acuerdo con el actual concesionario para finalizar la concesión y proceder a su licitación. Como ese acuerdo significaría una cierta “compensación” al concesionario actual, se permitiría el uso de aquélla como parte de la cotización en la licitación.
  4. Con respecto a las frecuencias libres, se procedería a su licitación al mejor postor, quien debería cumplir con los usos asignados por la UIT solicitar una modificación que el gobierno nacional presentaría ante el organismo.

 

¿Cómo resolverían los derechos de propiedad el problema de las interferencias?

Es necesario tener en cuenta que el nivel de interferencia no tiene por qué ser cero, como mencionáramos antes. Si la interferencia debería ser tolerada o reducida y quién debería ser responsable de ello son aspectos que dependen de los beneficios relativos de cada uso en comparación con los costos de obtener los niveles adecuados de servicios. El funcionamiento del mercado y la vigencia de los derechos de propiedad ofrecerían a los propietarios de las frecuencias dos caminos:

–          acuerdos voluntarios por los cuales el que causa interferencia en la propiedad de otro busca reducirla (modificación de la potencia de transmisión, direccionamiento de la antena, control de la frecuencia de emisión, antenas direccionales), o el interferido lo hace (filtros, etc.). Ambas acciones tienen costos, y lo que está en discusión es quién asume los costos. Una posibilidad es alcanzar acuerdos voluntarios;

–          acudir a mediadores o árbitros seleccionados por las dos partes, lo cual permitiría crear un paso previo, y más eficiente, al recurso a la justicia. Muy probablemente, asociaciones de los mismos usuarios de frecuencias, radios, radioaficionados, ofrecerían estos servicios de mediación, hasta en los casos que involucren a asociaciones de otras entidades.

Este tipo de solución fue adoptada por Nueva Zelanda. La Ley de Radiocomunicaciones de 1989 creó derechos de propiedad sobre las frecuencias o canales específicos (llamados “derechos de control”). Las empresas privadas adquieren su derecho por dos medios: (1) subastas públicas, en el momento que el Ministerio saca a la venta un canal o gama de frecuencias, y (2) en el mercado privado de estos derechos, es decir a otros que ya los poseen.

Algo similar ocurrió en Guatemala a partir de la aprobación de una nueva Ley de Telecomunicaciones en 1996[1]. En el siguiente gráfico puede observarse la cantidad de subastas realizadas por tipo de frecuencia, durante los años 1996-2004:

El resultado era de esperar. Los propietarios de emisoras invierten más porque ya no tienen dudas sobre la licencia. La competencia entre las compañías de telefonía móvil es fuerte, pues saben que no existe un número limitado de licencias y que cualquiera puede ofrecer ese servicio con sólo pedir o adquirir derechos necesarios. Durante los nueve años del gráfico, Guatemala, siendo un país pobre de casi 13 millones de habitantes, pasó de tener 400.000 líneas a más de 10 millones. El país se ha convertido en un banco de pruebas de empresas como Qualcomm para investigar nuevos usos de las distintas frecuencias[2].

 

[1] Así lo comenta el Lic. José Toledo, quien fuera director de la Superintendencia de Telecomunicaciones: “Se creó la figura novedosa de los Títulos de Usufructo que es nominativo y tiene posibilidades de negociarse. Allí se hablaba de un mercado secundario de estos títulos. De alguna forma esto se dio. Yo fui testigo de muchos endosos de estos títulos, que se pueden transferir y endosar. Sólo basta con registrarlos, obviamente la única función de la Superintendencia es que se haga un registro y aquí viene la otra novedad – insisto la ley dice que el espectro radioeléctrico es propiedad del estado – entonces se creó la figura del Título de Usufructo por 15 años, pero bueno y después de 15 años ¿qué?, pues hay un pequeño artículo, un inciso allí en la ley que dice que basta con que el propietario demuestre que durante esos 15 años uso la frecuencia y se le prorroga automáticamente otros 15 y así sucesivamente, y eso basta que lo demuestre, pues puede haber sido una sola vez, no pone ningún tipo de limitación, la ley así pues crea esta novedad funcionando muy bien”. Toledo, José, (2005).

[2] Comenta David Couso Diaz: No hace mucho, el sector Radiocomunicaciones de la ITU, a través de la Unidad de Políticas de la ITU, ha reflexionado en un Taller (Workshop on radio spectrum management for a converging world, Ginebra, 16-18 de febrero de 2004 (http://www.itu.int/osg/spu/ni/spectrum/) sobre la gestión del espectro, tras constatar que la convergencia de los servicios no ha venido acompañada, en la mayor parte de los países, de un cambio en un modelo de gestión ya centenario. El primer dato relevante es el de los fallos en la planificación/atribución, ante el hecho evidente de que las fronteras entre los servicios contemplados en el Reglamento de Radiocomunicaciones se desdibujan: El teléfono móvil capta, en algunos países, la señal de televisión en directo, permite acceso de banda ancha inalámbrico, es mucho más que un servicio móvil. Por otra parte, la convergencia tecnológica impone que una sola aplicación/Terminal pueda prestar servicios diferentes, manejando diferentes rangos de frecuencias. La respuesta de los reguladores a estas dificultades no ha sido homogénea: en un extremo de la escala están los países que, como España, se mantienen fieles al modelo tradicional de mando y control, con atribución rígida y asignación concursada, en caso de escasez de frecuencias, mientras que en un lugar intermedio se situarían las legislaciones y los reguladores que optan por adjudicar cada vez más segmentos del espectro en base a competiciones de mercado (subastas) o, en tercer lugar, admiten posteriormente un mercado secundario de los derechos de uso que (con alguna variante) proporciona esa convergencia. Se busca así la asignación más rápida, flexible y eficiente del espectro, puesto que se espera que las frecuencias en cuestión sean destinadas a la tecnología más demandada y que ofrezca un mejor servicio al menor coste.

Normalmente estas medidas se introducen en un sistema de derechos exclusivos, pero también puede manifestarse en el incremento de bandas de espectro sin licencia que confiere mayor posibilidad de comercio a las empresas al recaer sobre determinadas bandas de frecuencias que por sí mismas no demandan un uso concreto. Aunque en España ni siquiera se haya utilizado sistemáticamente el modelo de “mercado primario” del espectro (es decir, la adjudicación y asignación de derechos de uso individuales mediante mecanismos de subasta competitiva) prefiriendo en general el “concurso” cuando exista limitación, o el otorgamiento a todos los solicitantes por orden de llegada, en la medida en que el Derecho comunitario optó por establecer esta posibilidad, ahora recogida, de forma un tanto tenue, en el párrafo final del número 2 del art. 45, al que luego nos referiremos (es claro que existe un modelo de gestión de mercado).

 

Mientras discuten la intervención a la AFSCA, veamos porqué sería mejor asignar propiedad (III)

Hasta el momento, los gobiernos han asumido la propiedad del espectro electromagnético y su distribución. Este proceso se efectúa a partir de acuerdos que han realizado los gobiernos en el marco de la Unión Internacional de Telecomunicaciones, UIT, organismo que define el uso que ha de asignarse a cada segmento de bandas. El organismo nacional define a su vez quiénes harán uso de las bandas específicas en el segmento ya definido.

                Esta definición no solamente tiene un impacto económico, sino también político, de magnitud. Esto no solamente afecta a la eficiencia económica sino al derecho a la libertad de prensa. Como el gobierno asigna las frecuencias, también controla la forma en que se usan e incluso puede llegar a no otorgar o renovar una licencia si espera críticas por parte de un medio periodístico que las utiliza para hacer llegar sus contenidos. El caso reciente de Venezuela es un ejemplo. Sin calidad institucional, sin división y limitación al poder, las políticas regulatorias terminan siendo instrumento de los intereses creados o de los intereses del gobernante.

Ahora bien, la pregunta que debe hacerse en este punto, y que se relaciona con la posibilidad de los planificadores y reguladores de obtener información, es: ¿Sobre la base de qué criterios (información) ha de asignarse cierto segmento de bandas a determinado uso?

Dado el carácter técnico de esta materia, se aduce que son estos criterios los que se toman en cuenta. Sin embargo, dentro de las limitaciones que la tecnología del momento imponga, lo cierto es que existen distintos usos posibles del espectro.

Para empezar: la UIT ha dividido al mundo en tres zonas y las asignaciones no son las mismas en cada una de ellas, tratando de adaptarlas a las particulares necesidades de cada una. Si esto es así, ¿qué información permite tomar esa decisión sobre lo que es más deseable en Asia o en América?

Ante la ausencia de mecanismos de mercado (precios), ya hemos analizado la imposibilidad de evaluar las distintas alternativas, si no es tomando solamente en cuenta las personales preferencias de los funcionarios encargados de la asignación. Al realizar esa asignación, tanto la UIT como la agencia local deben juzgar la utilidad económica para los consumidores de cada uno de los servicios. Si se asignan a un uso determinado, reducen al mismo tiempo la cantidad de frecuencias (utilidades TAF) para otros usos. Ya comentamos cómo se quitaron las frecuencias de radio FM para la televisión, y lo mismo sucede con el uso de la transmisión directa satelital y los servicios de microondas. El poder que tienen las agencias estatales que administran el espectro equivale al que tendría el Estado si definiera el tamaño y la forma de todas las propiedades inmuebles y aprobara todas las transacciones de tierras.

Precisamente, una de las principales enseñanzas del reciente fracaso del socialismo en todo el mundo ha sido destacar la importancia de la propiedad, tanto por los incentivos que genera como por la información (su intercambio), esto es, los precios. Los precios envían información sobre la disponibilidad o la escasez de los bienes y servicios en una sociedad, y permiten comparar usos alternativos de acuerdo con las valoraciones individuales. Si existe una alta demanda de servicios telefónicos celulares, habrá emprendedores que ofrecerán precios más altos por el uso de frecuencias con este destino, y quienes las utilicen para otros servicios se sentirán motivados para reasignar su uso.

Los precios proveen un estándar objetivo para realizar esa asignación, que, en su ausencia, debe realizarse como se hace actualmente, siendo el funcionario estatal el que evalúa, como menciona la ley de radiodifusión, la calidad “moral” de cierto interesado y controla quiénes forman parte de los directorios de las radios.

La existencia de precios es importante, además, pues el uso del espectro electromagnético para las telecomunicaciones está compitiendo además con otros medios de transmisión como los cables, lo que está experimentando un gran avance (fibra óptica). Nuevamente, no existe forma de comparar entre la utilización de frecuencias o cables.

La alternativa es permitir el desarrollo de derechos de propiedad en unidades TAF que posean dueños con derechos exclusivos de uso, la transferencia entre usos o a otros usuarios, la subdivisión y la posibilidad de obtener ganancias o de sufrir pérdidas. Esto daría origen a precios de estas unidades TAF y crearía los siguientes incentivos:

  • llevaría a una asignación más eficiente de este recurso escaso
  • permitiría el libre ingreso y aumentaría la competencia. El ejemplo de las radios FM “informales” y su imposibilidad de ingresar legalmente en el mercado con la planificación es claro. Si hubieran podido adquirir esas bandas no utilizadas nunca habría existido tal cosa como una radio “informal”;
  • nuevos servicios podrían ensayarse e ingresar en el mercado adquiriendo ciertas frecuencias y no debiendo esperar una asignación del ente regulador;
  • aumentaría la eficiencia en el uso de las frecuencias, ya que sus propietarios tendrían el incentivo de reducir, “angostar” el uso de sus bandas para permitir otros usos y obtener así mayores beneficios. Esto fomentaría el desarrollo de nuevas tecnologías y equipos. La “escasez” del espectro sería efectivamente reducida. A medida que la tecnología avanza es posible reducir las separaciones entre frecuencias y crear espacio para nuevos usos o usuarios. Por ejemplo, es técnicamente factible reducir el ancho de la banda de TV por 5, 10 y hasta 100, pero no existe un incentivo económico para ello, ya que se está utilizando hasta este momento un recurso “gratuito”.

Mientras discuten la intervención a la AFSCA, veamos si no es mejor tener derechos de propiedad (II)

La intervención de la AFSCA ha generado un debate acerca del método y la supuesta autonomía de la agencia. Pero no se discute el fondo: ¿debería existir? En el post anterior vimos los argumentos que se presentan para justificar la propiedad estatal de las frecuencias. Ahora comenzaremos a ver las que justifican la propiedad privada:

«Esta ha sido la justificación para la intervención estatal y el control del gobierno sobre el espectro electromagnético. Se pensaba que el mercado iba a llevar al caos, ya que los emisores se superpondrían, y era necesario poner “orden”. Esto también se basa en la experiencia de los primeros años de la radio, donde los TAF eran “propiedad común”, es decir, de nadie en particular, y los usuarios se lanzaban no sólo a emitir sino a interferir en las señales de sus competidores.

Sin embargo, lo que sucedía no era el “caos” del mercado, sino que no se había permitido la evolución de los derechos de propiedad sobre las unidades TAF, de tal manera que sus propietarios pudieran hacer valer sus derechos ante la justicia, así como el propietario de un inmueble puede hacerlo ante su invasión. El uso simultáneo de una unidad TAF no era diferente de los problemas que se plantean para el uso simultáneo de cualquier otro recurso[1].

Como todo recurso escaso, debe ser administrado su uso, ya que si fuera de acceso abierto nos encontraríamos nuevamente en presencia de la “tragedia de los comunes”, la que en este caso adquiriría la forma de interferencia entre las señales de unos y otros, entre los intentos de comunicarse de las distintas personas.

Nuevamente, como hemos visto antes, tenemos dos alternativas principales: la que hace uso de esa institución “evolutiva” que es el derecho de propiedad, tan utilizado para resolver otras “tragedias de los comunes”, el que termina definiendo el uso del recurso en forma descentralizada y con múltiples ensayos; o podemos intentar hacerlo a través de la regulación centralizada y la decisión de alguna agencia regulatoria.

La experiencia con este segundo método no es muy alentadora (Coase, 1959). La Federal Communications Commision es el organismo regulador del espectro de frecuencias en los Estados Unidos. La FCC, por ejemplo, se manejó con extrema lentitud para evaluar una propuesta para reducir la separación que existe entre las frecuencias de radio AM de 10 kHz a 9 kHz, lo cual hubiera significado el nacimiento de unas 1.000 estaciones de radio nuevas. Otro tanto ha sucedido con el desarrollo de la AM estéreo. En ambos casos, la lentitud se ocasiona por cuestiones “políticas”, en el sentido de que los licenciatarios de frecuencias AM se oponen al ingreso de nuevos oferentes, mientras que quienes tienen licencias de FM se oponen al desarrollo de la AM estéreo, en ambos casos para impedir una mayor competencia.

Otro ejemplo se relaciona con la LPTV (“Low Power TV”), conocida también como sistema MMDS o microondas[2].     A la FCC le llevó diez años finalizar los criterios de asignación de la TV convencional y otros 30 años modificarlos para permitir la aparición de la LPTV. También se demoró tres años en resolver una disputa entre la radio FM y la televisión VHF sobre ciertas frecuencias y diez años en reasignar ciertas frecuencias de la televisión UHF a los teléfonos celulares.

Una historia ya legendaria sobre el manejo político de la autoridad regulatoria se refiere al origen de la FM y al destino de su creador, Edwin Armstrong. Con la determinación de convencer sobre las bondades de la FM, Armstrong solicitó a la FCC frecuencias y un permiso para crear su estación de radio FM. En 1940 la FCC otorgó a la FM el uso de las frecuencias de 40 a 52 MHz. Para fines de la guerra, en 1945, existían ya más de 50 estaciones de FM y unos 500.000 receptores.

No obstante ello, la FCC cambió las asignaciones, trasladando a FM a las actuales bandas de 88-108 MHz y otorgando a la televisión las frecuencias 44-88 MHz (canales 1 a 6) y 174-216 MHz (canales 7-13). Las FM fueron así liquidadas, ya que los usuarios se encontraron con equipos receptores no aptos para captar las transmisiones en las nuevas frecuencias asignadas. Por supuesto que nadie los indemnizó por ello.

Por último, le costó a la empresa de comunicaciones a larga distancia MCI cerca de 2 millones de dólares y 7 meses de trabajo construir sus torres de microondas pero unos 7 años y 12 millones de dólares en costos legales y regulatorios hasta obtener la licencia. [3]

Según han observado muchos investigadores, las agencias regulatorias comienzan su vida como reguladores agresivos de la industria pero, con el transcurso del tiempo, son capturadas por los mismos regulados y terminan compartiendo sus puntos de vista e intereses.

[1] “La interferencia creada por el uso simultáneo de la misma unidad del espectro por dos o más usuarios no es diferente de la interferencia entre usos simultáneos competitivos de cualquier otro recurso. Una porción de tierra no puede utilizarse para cultivar trigo y como parque al mismo tiempo sin interferir un uso con el otro. Un ómnibus no puede transportar cargas desde A hasta B y pasajeros desde A hasta C al mismo tiempo. Los mismos cinco minutos de tiempo de una secretaria no pueden utilizarse para escribir a máquina o para hacer llamadas telefónicas sin cierta degradación de cada función”. (Fountain, John, 1989, p. 135).

[2] “El atractivo de la LPTV no es difícil de entender. Autorizando la construcción de alternativas de baja energía a las estaciones dominantes actualmente en el aire, la FCC no sólo abría una puerta a unas 8.000 estaciones transmisoras nuevas, sino también al relativamente exclusivo mundo capital-intensivo de la transmisión de TV a un nuevo grupo de emprendedores. La FCC empezó a investigar la LPTV hace varios años como una solución casi perfecta al problema de la escasez que había estado en el centro de muchas de sus decisiones regulatorias y que había guiado el otorgamiento de licencias por más de medio siglo. En teoría, otorgándole a una estación de LPTV suficiente energía para transmitir su señal, digamos, de 5 a lo millas, se resolvería el problema de utilización del espectro, que era la razón técnica para limitar las licencias en determinado lugar”.

“Pero la FCC, como otros proponentes de la LPTV, también vio un segundo impacto interesante: el bajo costo relativo de los equipos necesarios -una fracción del equipamiento de toda una estación de televisión- daría acceso a la LPTV a minorías, grupos comunitarios y otros que durante años han luchado mucho, tanto ante la FCC como en las cortes, para tener mayor acceso a la transmisión de TV regular.»

«Después de abrir la puerta a la LPTV, la comisión fue inundada con 6.500 solicitudes, creándose tal desorden administrativo -literalmente una montaña de papeles con pocos lineamientos para decidir quién recibiría los 3.000 a 4.000 lugares disponibles- que congeló el proceso en forma temporaria. Esto demoró la llegada de la LPTV al mercado mientras la cantidad de papel crecía; la montaña creció hasta contener 12.000 solicitudes.» (Diamond, et al, 1983, p. 26).

[3] Confirmando lo anterior, comenta el Dr. John Fountain con respecto a Nueva Zelanda (1989, p. 18): “La vulnerabilidad a los grupos de presión no se elimina con procedimientos de salvaguardia. En verdad, éstos pueden inhibir la eficiencia económica al ser incorporados a los juegos estratégicos de los participantes en la actividad. Más aun, no importa cuán bien dirigidas estén, las agencias regulatorias inevitablemente se hallan limitadas en la sabiduría de sus decisiones por el flujo de información de que disponen”.

“Los grupos de interés que aparecen ante las agencias regulatorias proveen mucha información y análisis que a sus funcionarios les sería imposible o muy costoso obtener en forma independiente. Naturalmente, cada grupo presenta su evidencia de tal manera que sea favorable para su propio caso. Dada la legalidad y formalidad de los procesos, o la falta de acceso a influencias con costos reducidos, la participación en los procesos regulatorios por parte de gran número de consumidores es simplemente muy costosa. Como resultado, es extremadamente difícil -tal vez imposible- que las agencias regulatorias tomen decisiones que sean económicamente eficientes.”

Mientras discuten la intervención a la AFSCA, veamos mejor si esta agencia debería existir (I)

Mientras se discute la intervención de la AFSCA (Autoridad Federal de Servicios de Comunicación Audiovisual) presentaré parte del contenido del libro El Foro y el Bazar sobre uno de los aspectos que administra y regula esta agencia, las frecuencias electromagnéticas:

                «Uno de los temas más controvertidos en materia de telecomunicaciones es el del manejo del espectro de frecuencias radioeléctricas, tal vez porque se trata de un tema con alto contenido técnico que parece fuera del alcance de quien no tenga conocimientos avanzados en ingeniería.

                Sin embargo, como trataremos de explicar aquí, no se diferencia de cualquier otro recurso como la tierra, las maquinarias, los minerales o los bosques. No obstante ello, los derechos de propiedad sobre el espectro electromagnético no se han desarrollado por haber quedado bajo el mandato de instituciones de planificación centralizada, tanto a nivel nacional como, a través de tratados e instituciones, internacional.

                ¿Qué es, específicamente, el espectro electromagnético? La energía electromagnética se traslada en forma de campos eléctricos y magnéticos oscilantes. Lo que se denomina “frecuencia” es el nivel de oscilaciones que se mide en unidades de ciclos por segundo, o hertzios. El espectro de frecuencias varía desde 0 Hz hasta los rayos cósmicos, con una frecuencia de 1025 (diez a la veinticinco). Lo que normalmente se denomina frecuencias de radio son las que sirven para las telecomunicaciones, desde 10 kHz hasta 300.000 MHz.

                La transmisión se origina cuando se produce energía en una frecuencia específica en un transmisor, y se carga en ella un mensaje codificado controlando cuidadosamente las características físicas de la energía (modulando). Esa codificación se realiza como variaciones en el modelo de oscilación de la frecuencia. Toda fuente de energía emite estas señales; los transmisores, las manchas solares, el encendido de un auto, etcétera. La energía ya codificada con un mensaje es lanzada por una antena y es interceptada y seleccionada por un receptor que la decodifica.

                Distintos tipos de transmisión requieren distintos anchos de bandas de frecuencias. Así, por ejemplo, una estación de radio FM ocupa unos 240 kHz, una llamada telefónica entre 12,5 kHz para los celulares, 25 kHz utilizando “banda ciudadana” y 36 kHz con modulación FM, un programa de televisión utiliza entre 5.000 y 7.000 kHz y unas diez veces más cuando es transmitido desde un satélite.

                Existen algunos principios que es necesario tener en cuenta:

1.            La potencia de la señal decrece a medida que uno se aleja de la fuente emisora (algo que cualquiera comprueba claramente cuando viaja en automóvil).

2.            Las señales emitidas no pueden limitarse exactamente a la frecuencia señalada sino que generan cierta energía en otras bandas. Esto se debe a un problema de costos y tecnología para evitar esta “externalidad”, es decir, el perjuicio impuesto por los actuales transmisores a otras bandas es menor que el costo que significaría desarrollar nuevos equipos que eliminen el problema, aunque el avance tecnológico con el tiempo lo hará posible.

3.            El comportamiento de la señal emitida no puede predecirse exactamente, ya que, por ejemplo, su alcance depende de ciertos factores como los edificios, las maquinarias y otros de carácter didáctico, como las condiciones atmosféricas, así como de las irregularidades del terreno, de la actividad solar, etcétera.

4.            Lo que interesa es la potencia relativa de la señal, esto es, en cl caso de una radio, que la emisión en una frecuencia determinada supere y “ahogue” la externalidad mencionada en el punto 2. Cuanto más se acerque la relación señal-interferencia a la unidad, mayor será la interferencia y los receptores no podrán diferenciar entre las dos señales que reciben. Si la señal es lo suficientemente superior y puede filtrarse la interferencia, se elimina el problema.

                La necesidad de asignar frecuencias a usos y usuarios específicos se debe a la capacidad limitada de los receptores de diferenciar señales. Por esa razón, si dos transmisores coinciden en la frecuencia de sus mensajes, en el tiempo y en el espacio geográfico, se interfieren entre sí. Debe conseguirse diferenciar entre por lo menos una de las variables antes mencionadas. Esto es, o las transmisiones se realizan en tiempos diferentes (unas por la tarde, otras por la noche, por ejemplo) en las mismas frecuencias y zona geográfica; o se realizan en distintas frecuencias, pudiendo coincidir en el tiempo y en la zona geográfica (como las distintas radios AM y FM en una ciudad ); o deben estar suficientemente separadas para que la potencia de ambas no interfiera entre sí (un radio de una ciudad y de otra) para lo cual existen dos formas de separarlas, sea asignando a un emisor una zona geográfica determinada (por ejemplo, Buenos Aires y un radio de 50 km.) o una potencia de emisión determinada (lo que es lo mismo, pues se calcula que con esa potencia se cubre cierta área geográfica).

                Estas dimensiones componen lo que se conoce como TAF (tiempo/área/frecuencia), que sirve como unidad para definir una unidad de recurso. No puede haber dos usos simultáneos en cada unidad TAF, pues si no se genera interferencia.