Si el tema es la desigualdad, la Academia Sueca decidió por el que sabe de eso: Deaton, no Pikkety

Cuanto más avanzo en la lectura del libro “The Great Escape”, del último premio Nobel en Economía, Angus Deaton, más me parece que la Academia de Ciencias de Suecia (este premio es financiado por el Banco de Suecia, no por la Fundación Nobel como los otros), puede ser un intento de balancear el impacto que tuvo el libro de Pikkety. Es decir, si el tema en discusión a nivel global son las diferencias de ingresos, vamos a darle el premio a quien más ha estudiado el tema, y lo ha hecho más profesionalmente: Deaton.

Deaton

Deaton tiene un don: sabe analizar las estadísticas y saca todo tipo de conclusiones, todas ellas interesantes, aunque pueda uno no compartir todos sus juicios de valor. A diferencia de Piketty, Deaton no ve a las diferencias de ingresos como algo inherentemente malo (aunque puede serlo cuando son el resultado del lobby y el capitalismo de amigos). Así dice:

“Comenzando a mediados del siglo XVIII en Inglaterra, la longevidad comenzó a mejorar en todos los países del mundo. A medida que la gente escapaba de las enfermedades y la muerte temprana, los estándares de vida también comenzaban a mejorar y, en gran medida, la salud y el nivel de vida se movían en paralelo. Las ideas de la Revolución Científica y el Iluminismo produjeron eventualmente una revolución en el bienestar material, como también lo hicieron en la extensión de la vida. Estas revoluciones paralelas, impulsadas por las mismas causas finales, trajeron vidas mejores y más largas para muchos, pero también crearon un mundo de diferencias a través de lo que el economista Lant Pritchett ha memorablemente llamado “Divergencia, gran momento”. Le crecimiento económico trajo mejores estándares de vida como también una reducción de la pobreza. Es difícil medir todo esto en forma precisa pero un estudio minucioso estima que el ingreso promedio de todos los habitantes del planeta aumentó entre 7 y 8 veces entre 1820 y 1992. Al mismo tiempo, la fracción de la población mundial en extrema pobreza cayó de 84 a 24%. Este aumento sin precedentes de los estándares de vida llegó con enormes aumentos de la desigualdad de ingresos, tanto entre países como entre individuos dentro de los países. La naturaleza de la desigualdad también cambió. En el siglo XVIII, la mayor parte de la desigualdad se daba dentro de los países, entre los ricos aristócratas propietarios de tierras en un lado, y la gente común en el otro. Para el año 2000, en contraste, las mayores brechas se dan entre países, el resultado final de la gran divergencia.”

“La desigualdad puede, a veces, impulsar el crecimiento, si muestra a los demás una vía para beneficiarse con las nuevas oportunidades. Pero puede también menoscabar la mejora material e incluso extinguirla por completo. La desigualdad puede inspirar e incentivar a aquellos que quedaron atrás para alcanzar a los de adelante, generando mejores para ellos y para otros. O puede ser tan severa, y las ganancias tan concentradas en las manos de unos pocos, que el crecimiento económico se ahoga y se compromete el funcionamiento de la economía.”

Voy al médico. Veo su diploma en la pared. ¿Le cuento sobre el ‘cartel’ que genera el licenciamiento?

Vengo del médico. Mientras esperaba a ser atendido miraba su diploma colgado en la pared, y una serie de certificados de asistencia a distintos cursos en su especialidad. Curiosamente, también leía un artículo titulado “Beyond Medical Licensure”, de Shirley Svorny, profesora de economía de California State University y académica adjunta del Cato: http://object.cato.org/sites/cato.org/files/serials/files/regulation/2015/3/regulation-v38n1-6.pdf

Comenta:

“Quienes apoyan el licenciamiento de los profesionales médicos enfatizan la presencia de asimetrías de información entre pacientes y médicos. El economista George Ackerlof este fallo de mercado en un artículo famoso de 1970 publicado en el Quarterly Journal of Economics, sosteniendo que la regulación gubernamental podría ser apropiada en situaciones donde los consumidores están en desventaja informacional en relación a quienes venden el servicio. Aunque no consideró los incentivos que resultan de la responsabilidad legal, identificó al nombre-marca y a la certificación como instituciones importantes que pueden resolver la incertidumbre respecto a la calidad. Señaló que los mercados educativos y laborales utilizan nombres y marcas para guiar a los empleadores y a los consumidores.”

“En lugar de “colegios” de profesionales aprobados por los gobiernos, los hospitales deciden, por ejemplo, quien practicará neurocirugía. Los miembros del staff de un hospital privado analizan las credenciales y determinan exactamente lo que cada individuo puede hacer. Verifican y evalúan la educación, habilidades, experiencia, historia de mala praxis y la competencia de cada profesional médico antes de realizar ciertas tareas. Las empresas dueñas de seguros médicos (HMOs en Estados Unidos) realizan procedimientos similares, verificando una amplia gama de información cuando establecen redes o paneles de médicos con los que sus pacientes se pueden atender. Hacen esto porque pueden ser considerados responsables de algún error que cometa algún proveedor acreditado, y porque su reputación es importante.”

“Las empresas que aseguran a los médicos contra riesgos de mala praxis también los supervisan. Evalúan a los médicos cada año nuevamente considerando su educación, habilidades, historia de mala praxis y competencia. Pueden denegar la cobertura para ciertos procedimientos si es necesario, o denegarla totalmente.”

“En lugar de controlar a los médicos, el aparato de “licencia” provee un camino para la influencia de los profesionales que ha sido utilizado para restringir la competencia y frenar la innovación en la provisión de cuidado médico. Solamente en estados como Alaska donde escasea el servicio médico en las áreas rurales se han dejado de lado los intereses médicos que limitan la competencia para experimentar con nuevas formas de cuidado. La buena noticia es que, liberada de esas restricciones, la innovación puede reducir costos y mejorar el acceso sin un efecto aparente en la calidad. Es una situación win-win para todos salvo para los médicos que quieren proteger su campo tradicional.”

“Las similitudes entre las acciones de las agencias estatales de licenciamiento y un cartel son llamativas. Las regulaciones gubernamentales facilitan el tipo de restricción a la entrada que un cartel privado tendría problemas en imponer. Dictando el nivel adecuado de entrenamiento las regulaciones estatales benefician a los médicos licenciados a expensas de los consumidores. El aparato regulatorio también permite que grupos de médicos políticamente influyentes limiten el ámbito de práctica de profesionales no médicos.”

“El licenciamiento estatal funciona mal para proteger pacientes, si es que lo hace. Es común encontrar médicos licenciados y con problemas de alcohol seguir practicando mientras participan de un programa de tratamiento aprobado. Pocos profesionales médicos son sancionados por las agencias de control. En realidad, la mayoría de los que están catalogados como de alto riesgo por las empresas de seguros de profesionales médicos jamás han sido sancionados por esas agencias. Una estimación señala que solo un cuarto de los médicos en el mercado asegurador de alto riesgo han sido alguna vez sancionados por las agencias en toda su carrera. La buena noticia para los pacientes es que los profesionales que no obtienen seguro contra mala praxis no podrán acceder a la práctica en hospitales y serán excluidos de redes y paneles.”

Me llama el médico para atenderme…, por las dudas no le comento el artículo.

La irresponsabilidad fiscal no es monopolio argentino (ufa!): Estados Unidos también es un desastre

Muchos pensamos que nuestros países muestran una mala gestión fiscal, para decirlo en forma algo benigna. Pero otros países no son ningún ejemplo, tal el caso de los Estados Unidos. Michael Tanner, Senior Fellow del Cato Institute, comenta la situación fiscal de ese país (http://www.cato.org/policy-report/mayjune-2015/running-out-other-peoples-money):

“…Si los crecientes déficits fiscales anuales representan la irresponsabilidad fiscal de un año a otro, el total acumulado de tal irresponsabilidad es la deuda pública, que ha llegado ya a casi 18.200 billones de dólares. Pongamos esto en perspectiva: los Los Angeles Dodgers tienen el equipo mejor pagado del baseball. Por 18.200 billones podríamos pagarles a los Dodgers por 65.204 años y todavía nos quedaría dinero para un par de pitchers libres. Y, hablando de Los Angeles, $18.200 billones permitiría comprar todas las propiedades de la ciudad, 38 veces. Si tuviéramos que repagar la deuda pública a un ritmo de un dólar por segundo nos tomaría 576.736 años. La porción de deuda de cada norteamericano es de 56.750 dólares.

El gobierno de Estados Unidos clasifica oficialmente la deuda de dos formas. La primera es ‘en poder del público’, que son los bonos en manos de individuos, empresas, gobiernos extranjeros y otras entidades que no sean el gobierno federal. Al 1 de Abril esta deuda alcanzaba 13.100 billones y representaba 74% del PIB, el porcentaje más alto desde la Segunda Guerra Mundial.

La segunda clasificación es deuda ‘intra-gubernamental’, deudas del gobierno federal consigo mismo, como la del Fondo de la Seguridad Social. Los más de cien fideicomisos y cuentas especiales tienen hoy 5.060 billones de dólares en deuda, cuya porción principal es con la Seguridad Social (2.730 billones) y Medicare (287.000 millones). Si combinamos la deuda en poder del público y la intra-gubernamental llegamos a los 18.200 billones.

Esto es más del 101% del PIB proyectado para fines de este año. Consideremos esto. Debemos actualmente más del valor total de todos los bienes y servicios que se producen en el país en un año. “

Pero esto no incluye la deuda implícita.

“Las obligaciones futuras no financiadas de la Seguridad Social son ahora más de 24.900 billones de dólares. Las de Medicare son más difíciles de determinar, debido a la reciente reforma de la salud. En 2009 se estimaban en 88.900 billones. Desde entonces la inflación en servicios de salud ha sido algo más baja. Los economistas debate la razón de esto y si va a continuar pero ha resultado en una reducción de los pasivos no cubiertos a solo 47.600 billones.

Así, la deuda federal combinada (la que posee el público, la intergubernamental y la implícita) totaliza 90.500 billones de dólares. Eso es plata en serio, incluso en Washington, casi $282.000 por cada habitante en Estados Unidos. Los estudiantes que hoy se gradúan se preocupan por su deuda universitaria. Eso es nada comparado con lo que deben como su parte de la deuda pública.

Más aún, estas proyecciones asumen que las tasas de interés de la deuda pública se mantendrán a los niveles actuales, cercanos al 2%. Aun a este nivel, los intereses de la deuda son cada vez una porción más grande del presupuesto. Este año el gobierno federal pagará 229.000 millones en intereses. Para 2024 con una modesta suba de intereses crecería a 808.000 millones. Y algo después superaría el billón de dólares cada año. Para 2035, los intereses de la deuda competirían con Medicare como el segundo ítem más importante del presupuesto, detrás de la Seguridad Social.

Y las tasas de interés pueden no seguir tan bajas. Se estima que un aumento de un punto porcentual agrega 1.000 billones en intereses en la década siguiente. En las dos décadas pasadas el promedio de tasa de la deuda pública fue de 5,7%. Por lo tanto, si las tasas retornaran a algo similar a esos niveles tradicionales, se agregarían billones de dólares a las obligaciones futuras.”

Personalidades tiránicas, despiadadas, egocéntricas: el capitalismo da a Steve Jobs, el poder a Hitler

Se desató en estos días una polémica por una nueva publicación del libro de Adolf Hitler, Mein Kampf. Asimismo, pasaron por uno de los canales de cable la película “La Caída”, con una impresionante actuación de Bruno Ganz en el personaje del dictador nazi.

La Caida de Hitler.www.dvdrip-audiolatino.com

Su personalidad aparece allí como “tiránico, despiadado, hipercompetitivo, egocéntrico, frío, manipulador y hasta con decisiones bastante cuestionables hacia su ex pareja”.

Sin embargo, esta cita no pertenece a una descripción de la personalidad de Hitler sino de Steve Jobs en una película recientemente estrenada con su nombre: http://www.lanacion.com.ar/1858301-una-sintesis-del-capitalismo-salvaje

El autor de la crítica titula la nota «Una síntesis del capitalismo salvaje» y concluye que “este Steve Jobs de tres cabezas (Boyle-Sorkin-Fasssbender) resulta, claro, un genio y figura, un hombre divertido y seductor, pero también un monstruo despótico incapaz de cuidar a sus seres queridos y colaboradores. Una síntesis y una metáfora perfecta del capitalismo más salvaje e inhumano.”

Jobs

Quisiera ahora hacer un comentario sobre la referencia al “capitalismo más salvaje e inhumano”, comparando esas dos personalidades que parece que tuvieran algunos rasgos en común. Asumamos que Jobs era como se lo describe arriba. Hitler también, e incluso más.

Pero quisiera cuestionar que se denomine ‘capitalismo salvaje e inhumano’ al sistema que vuelve a una personalidad de ese tipo, como Jobs, en  un genio creador que no paró de ofrecernos una innovación tras otra que cambiaron nuestras vidas en forma muy positiva. Comparemos el resultado de la actuación de este tiránico despiadado en el mercado con la de ese otro tiránico despiadado en el poder, con el control del Estado. El primero nos dio el Ipod, Iphone, Ipad y muchas otras cosas; el otro unos 25 millones de muertos, países totalmente destruidos, familias destrozadas, campos de concentración, etc.

Un sistema que vuelve a una personalidad fría y egocéntrica, manipuladora y tiránica en un innovador genial más que “salvaje e inhumano” debería ser considerado todo lo contrario: canaliza las fuerzas y los impulsos de ese tipo de personalidades hacia algo positivo; mientras que la carrera por la búsqueda del poder y el control del Estado ocasiona terror y destrucción.

Es cierto, tal vez no era fácil estar cerca de Jobs, pero todos estaban allí voluntariamente, manteniendo una relación contractual, formal o informal, de la que podían retirarse en cualquier momento sin que Jobs pudiera impedirlo violentamente. Ningún descontento con lo que sucediera en Apple iba a terminar preso o extinguido.

No podían decir lo mismo quienes eran secuestrados por las SS, quienes terminaban en un campo de exterminio o quienes se veían atacados por las tropas alemanas. Incluso esa voluntariedad era discutible en muchos soldados alemanes, reclutados a la fuerza, y hasta en oficiales que temían las consecuencias de una deserción (aunque hubo algunos que valerosamente lo hicieron y no se prestaron a aceptar órdenes tiránicas).

En definitiva, un sistema que vuelve al tiránico un innovador poco tiene de salvaje: limita a las fieras, conduce su ego hacia la satisfacción de las necesidades de los demás, no a su destrucción. Salvaje parece ser la lucha por el poder y su ejercicio ilimitado: el capitalismo no funciona si todos somos más que bondadosos, simplemente con la gente como es, buena y mala; e incluso presiona para sacar algo muy bueno de los peores.

Juan Carlos Cachanosky: un amigo, un colega, y en definitiva un gran profesor que nos enseño a todos

Conocí a Juan Carlos Cachanosky hace unos 25 años y desde entonces trabajé con él de una forma u otra. Él había llegado a las ideas antes que yo, me sacaba varios cuerpos. Había estudiado economía en la Universidad Católica y luego, vinculado con Alberto Benegas Lynch (h), estudió con Hanns Sennholz y formó parte del Departamento de Investigaciones desde ESEADE desde su inicio.

Cachanosky

Tal vez me pierdo detalles en esta breve historia. Me voy a referir más adelante a sus contribuciones académicas. Por el momento quiero señalar que forjó una fuerte amistad con un grupo de economistas e historiadores, quienes vimos en él siempre una referencia en esa materia. Como pocos profesores, pudo lograr establecer una relación con sus alumnos como pocas veces he visto. Son pocos los casos en los que los alumnos dejan otros programas de lado para cenar y conversar con el profesor, y sin embargo eso era lo que ocurría con “Charly”, para nosotros, “Cacha” para los guatemaltecos y el resto de latinoamericanos. He tenido la oportunidad de estar en algunas de esas cenas de exalumnos, la última en el 2015 en Guatemala.

Humor irónico y dedicación al trabajo eran dos de sus características salientes. Su punto débil era ser de Boca…, y recordártelo cada vez que ganaban.

Utilicé mucho en distintas materias su introducción a la Escuela Austríaca de Economía en un artículo de ese nombre en el primer número de la revista Libertas, el Journal académico que comenzara a publicar ESEADE en 1984: http://www.eseade.edu.ar/files/Libertas/49_4_Cachanosky.pdf

También fue muy útil la publicación de su tesis sobre el uso de las matemáticas en la economía “La ciencia económica y la economía matemática”, también publicada en Libertas, en dos ediciones, la Nº 3 de Octubre de 1985 y la Nº 4 de Mayo de 1986.

http://www.eseade.edu.ar/servicios/Libertas/47_6_Cachanosky.pdf

http://www.eseade.edu.ar/servicios/Libertas/46_4_Cachanosky.pdf

En el número 10 publicó su análisis sobre la crisis de los años 1930: http://www.eseade.edu.ar/servicios/Libertas/40_7_Cachanosky.pdf

No menos importante fue su siguiente trabajo, “Historia de las teorías del valor y el precio”, también publicada en dos ediciones de Libertas, ya en 1995.

http://eseade.edu.ar/files/Libertas/25_4_Cachanosky.pdf

http://www.eseade.edu.ar/files/Libertas/23_6_Cachanosky.pdf

Este es un monumental trabajo donde revisa el avance, y los retrocesos, de la teoría del valor desde los griegos hasta la Revolución Marginalista. Muchos alumnos de Historia del Pensamiento Económico han hecho ese recorrido tan importante y fundamental para el avance de la teoría económica.

Luego de esto Charly cambió de rumbo intelectual completamente, y de la teoría pura o la historia del pensamiento económico se fue a la teoría económica aplicada al management y al cálculo financiero señalando el vínculo entre el análisis austriaco y el Value Based Management, por ejemplo en un artículo que publicó en el número 30 de Libertas: http://www.eseade.edu.ar/files/Libertas/14_7_Cachanosky.pdf

Y desde allí, haciendo honor a las ideas, se dedicó a ser emprendedor y a desarrollar la educación online a través de Corporate Training, en proyectos conjuntos con distintas universidades extranjeras, en cuyos programas muchos de sus amigos fuimos y éramos profesores hasta ayer: http://www.corporatet.com/

Su último proyecto era crear una revista académica online, que se llamaría Eleutheria, o Liberalismus, o retomara el viejo nombre de Libertas. Sus últimos mails al respecto son de ese mismo día en que el corazón cedió y nos sorprendió a todos.

Lo recordaremos con mucho cariño y sabemos que ha dejado un legado muy importante, en sus hijos y en sus alumnos, y en todos los que compartimos con él buena parte de su vida.

Mientras discuten la intervención a la AFSCA, veamos cómo asignaron propiedad otros países (IV)

¿Cómo se podría implementar un sistema de derechos de propiedad en las frecuencias del espectro electromagnético? Sería necesario seguir una serie de pasos:

  1. Como se comentara, la asignación de segmentos de frecuencias para determinados usos es realizada por la Unión Internacional de Telecomunicaciones. Por tratarse de un convenio internacional sobre el que un gobierno no puede imponer su voluntad, sería necesario seguir las asignaciones allí efectuadas con las siguientes consideraciones:
  1. plantear el problema de la asignación burocrática de frecuencias y proponer el desarrollo de derechos de propiedad;
  2. solicitar modificaciones a la asignación en la medida en que el funcionamiento del mercado así lo vaya mostrando.
  1. En materia local, el gobierno nacional tiene soberanía como para decidir la forma de asignar frecuencias, por lo que se definiría el mecanismo de asignación de derechos de propiedad dentro de los segmentos asignados por la UIT. Al respecto se presentan dos situaciones diferentes: las frecuencias que ya han sido asignadas a determinados usuarios y las que se encuentran libres.
  1. Con respecto a las primeras, éstas son por un tiempo limitado, por lo que se presentan las siguientes alternativas:
  2. a) esperar hasta el final de la concesión y licitar la venta de la frecuencia respectiva, o
  3. b) llegar a un acuerdo con el actual concesionario para finalizar la concesión y proceder a su licitación. Como ese acuerdo significaría una cierta “compensación” al concesionario actual, se permitiría el uso de aquélla como parte de la cotización en la licitación.
  4. Con respecto a las frecuencias libres, se procedería a su licitación al mejor postor, quien debería cumplir con los usos asignados por la UIT solicitar una modificación que el gobierno nacional presentaría ante el organismo.

 

¿Cómo resolverían los derechos de propiedad el problema de las interferencias?

Es necesario tener en cuenta que el nivel de interferencia no tiene por qué ser cero, como mencionáramos antes. Si la interferencia debería ser tolerada o reducida y quién debería ser responsable de ello son aspectos que dependen de los beneficios relativos de cada uso en comparación con los costos de obtener los niveles adecuados de servicios. El funcionamiento del mercado y la vigencia de los derechos de propiedad ofrecerían a los propietarios de las frecuencias dos caminos:

–          acuerdos voluntarios por los cuales el que causa interferencia en la propiedad de otro busca reducirla (modificación de la potencia de transmisión, direccionamiento de la antena, control de la frecuencia de emisión, antenas direccionales), o el interferido lo hace (filtros, etc.). Ambas acciones tienen costos, y lo que está en discusión es quién asume los costos. Una posibilidad es alcanzar acuerdos voluntarios;

–          acudir a mediadores o árbitros seleccionados por las dos partes, lo cual permitiría crear un paso previo, y más eficiente, al recurso a la justicia. Muy probablemente, asociaciones de los mismos usuarios de frecuencias, radios, radioaficionados, ofrecerían estos servicios de mediación, hasta en los casos que involucren a asociaciones de otras entidades.

Este tipo de solución fue adoptada por Nueva Zelanda. La Ley de Radiocomunicaciones de 1989 creó derechos de propiedad sobre las frecuencias o canales específicos (llamados “derechos de control”). Las empresas privadas adquieren su derecho por dos medios: (1) subastas públicas, en el momento que el Ministerio saca a la venta un canal o gama de frecuencias, y (2) en el mercado privado de estos derechos, es decir a otros que ya los poseen.

Algo similar ocurrió en Guatemala a partir de la aprobación de una nueva Ley de Telecomunicaciones en 1996[1]. En el siguiente gráfico puede observarse la cantidad de subastas realizadas por tipo de frecuencia, durante los años 1996-2004:

El resultado era de esperar. Los propietarios de emisoras invierten más porque ya no tienen dudas sobre la licencia. La competencia entre las compañías de telefonía móvil es fuerte, pues saben que no existe un número limitado de licencias y que cualquiera puede ofrecer ese servicio con sólo pedir o adquirir derechos necesarios. Durante los nueve años del gráfico, Guatemala, siendo un país pobre de casi 13 millones de habitantes, pasó de tener 400.000 líneas a más de 10 millones. El país se ha convertido en un banco de pruebas de empresas como Qualcomm para investigar nuevos usos de las distintas frecuencias[2].

 

[1] Así lo comenta el Lic. José Toledo, quien fuera director de la Superintendencia de Telecomunicaciones: “Se creó la figura novedosa de los Títulos de Usufructo que es nominativo y tiene posibilidades de negociarse. Allí se hablaba de un mercado secundario de estos títulos. De alguna forma esto se dio. Yo fui testigo de muchos endosos de estos títulos, que se pueden transferir y endosar. Sólo basta con registrarlos, obviamente la única función de la Superintendencia es que se haga un registro y aquí viene la otra novedad – insisto la ley dice que el espectro radioeléctrico es propiedad del estado – entonces se creó la figura del Título de Usufructo por 15 años, pero bueno y después de 15 años ¿qué?, pues hay un pequeño artículo, un inciso allí en la ley que dice que basta con que el propietario demuestre que durante esos 15 años uso la frecuencia y se le prorroga automáticamente otros 15 y así sucesivamente, y eso basta que lo demuestre, pues puede haber sido una sola vez, no pone ningún tipo de limitación, la ley así pues crea esta novedad funcionando muy bien”. Toledo, José, (2005).

[2] Comenta David Couso Diaz: No hace mucho, el sector Radiocomunicaciones de la ITU, a través de la Unidad de Políticas de la ITU, ha reflexionado en un Taller (Workshop on radio spectrum management for a converging world, Ginebra, 16-18 de febrero de 2004 (http://www.itu.int/osg/spu/ni/spectrum/) sobre la gestión del espectro, tras constatar que la convergencia de los servicios no ha venido acompañada, en la mayor parte de los países, de un cambio en un modelo de gestión ya centenario. El primer dato relevante es el de los fallos en la planificación/atribución, ante el hecho evidente de que las fronteras entre los servicios contemplados en el Reglamento de Radiocomunicaciones se desdibujan: El teléfono móvil capta, en algunos países, la señal de televisión en directo, permite acceso de banda ancha inalámbrico, es mucho más que un servicio móvil. Por otra parte, la convergencia tecnológica impone que una sola aplicación/Terminal pueda prestar servicios diferentes, manejando diferentes rangos de frecuencias. La respuesta de los reguladores a estas dificultades no ha sido homogénea: en un extremo de la escala están los países que, como España, se mantienen fieles al modelo tradicional de mando y control, con atribución rígida y asignación concursada, en caso de escasez de frecuencias, mientras que en un lugar intermedio se situarían las legislaciones y los reguladores que optan por adjudicar cada vez más segmentos del espectro en base a competiciones de mercado (subastas) o, en tercer lugar, admiten posteriormente un mercado secundario de los derechos de uso que (con alguna variante) proporciona esa convergencia. Se busca así la asignación más rápida, flexible y eficiente del espectro, puesto que se espera que las frecuencias en cuestión sean destinadas a la tecnología más demandada y que ofrezca un mejor servicio al menor coste.

Normalmente estas medidas se introducen en un sistema de derechos exclusivos, pero también puede manifestarse en el incremento de bandas de espectro sin licencia que confiere mayor posibilidad de comercio a las empresas al recaer sobre determinadas bandas de frecuencias que por sí mismas no demandan un uso concreto. Aunque en España ni siquiera se haya utilizado sistemáticamente el modelo de “mercado primario” del espectro (es decir, la adjudicación y asignación de derechos de uso individuales mediante mecanismos de subasta competitiva) prefiriendo en general el “concurso” cuando exista limitación, o el otorgamiento a todos los solicitantes por orden de llegada, en la medida en que el Derecho comunitario optó por establecer esta posibilidad, ahora recogida, de forma un tanto tenue, en el párrafo final del número 2 del art. 45, al que luego nos referiremos (es claro que existe un modelo de gestión de mercado).

 

Mientras discuten la intervención a la AFSCA, veamos porqué sería mejor asignar propiedad (III)

Hasta el momento, los gobiernos han asumido la propiedad del espectro electromagnético y su distribución. Este proceso se efectúa a partir de acuerdos que han realizado los gobiernos en el marco de la Unión Internacional de Telecomunicaciones, UIT, organismo que define el uso que ha de asignarse a cada segmento de bandas. El organismo nacional define a su vez quiénes harán uso de las bandas específicas en el segmento ya definido.

                Esta definición no solamente tiene un impacto económico, sino también político, de magnitud. Esto no solamente afecta a la eficiencia económica sino al derecho a la libertad de prensa. Como el gobierno asigna las frecuencias, también controla la forma en que se usan e incluso puede llegar a no otorgar o renovar una licencia si espera críticas por parte de un medio periodístico que las utiliza para hacer llegar sus contenidos. El caso reciente de Venezuela es un ejemplo. Sin calidad institucional, sin división y limitación al poder, las políticas regulatorias terminan siendo instrumento de los intereses creados o de los intereses del gobernante.

Ahora bien, la pregunta que debe hacerse en este punto, y que se relaciona con la posibilidad de los planificadores y reguladores de obtener información, es: ¿Sobre la base de qué criterios (información) ha de asignarse cierto segmento de bandas a determinado uso?

Dado el carácter técnico de esta materia, se aduce que son estos criterios los que se toman en cuenta. Sin embargo, dentro de las limitaciones que la tecnología del momento imponga, lo cierto es que existen distintos usos posibles del espectro.

Para empezar: la UIT ha dividido al mundo en tres zonas y las asignaciones no son las mismas en cada una de ellas, tratando de adaptarlas a las particulares necesidades de cada una. Si esto es así, ¿qué información permite tomar esa decisión sobre lo que es más deseable en Asia o en América?

Ante la ausencia de mecanismos de mercado (precios), ya hemos analizado la imposibilidad de evaluar las distintas alternativas, si no es tomando solamente en cuenta las personales preferencias de los funcionarios encargados de la asignación. Al realizar esa asignación, tanto la UIT como la agencia local deben juzgar la utilidad económica para los consumidores de cada uno de los servicios. Si se asignan a un uso determinado, reducen al mismo tiempo la cantidad de frecuencias (utilidades TAF) para otros usos. Ya comentamos cómo se quitaron las frecuencias de radio FM para la televisión, y lo mismo sucede con el uso de la transmisión directa satelital y los servicios de microondas. El poder que tienen las agencias estatales que administran el espectro equivale al que tendría el Estado si definiera el tamaño y la forma de todas las propiedades inmuebles y aprobara todas las transacciones de tierras.

Precisamente, una de las principales enseñanzas del reciente fracaso del socialismo en todo el mundo ha sido destacar la importancia de la propiedad, tanto por los incentivos que genera como por la información (su intercambio), esto es, los precios. Los precios envían información sobre la disponibilidad o la escasez de los bienes y servicios en una sociedad, y permiten comparar usos alternativos de acuerdo con las valoraciones individuales. Si existe una alta demanda de servicios telefónicos celulares, habrá emprendedores que ofrecerán precios más altos por el uso de frecuencias con este destino, y quienes las utilicen para otros servicios se sentirán motivados para reasignar su uso.

Los precios proveen un estándar objetivo para realizar esa asignación, que, en su ausencia, debe realizarse como se hace actualmente, siendo el funcionario estatal el que evalúa, como menciona la ley de radiodifusión, la calidad “moral” de cierto interesado y controla quiénes forman parte de los directorios de las radios.

La existencia de precios es importante, además, pues el uso del espectro electromagnético para las telecomunicaciones está compitiendo además con otros medios de transmisión como los cables, lo que está experimentando un gran avance (fibra óptica). Nuevamente, no existe forma de comparar entre la utilización de frecuencias o cables.

La alternativa es permitir el desarrollo de derechos de propiedad en unidades TAF que posean dueños con derechos exclusivos de uso, la transferencia entre usos o a otros usuarios, la subdivisión y la posibilidad de obtener ganancias o de sufrir pérdidas. Esto daría origen a precios de estas unidades TAF y crearía los siguientes incentivos:

  • llevaría a una asignación más eficiente de este recurso escaso
  • permitiría el libre ingreso y aumentaría la competencia. El ejemplo de las radios FM “informales” y su imposibilidad de ingresar legalmente en el mercado con la planificación es claro. Si hubieran podido adquirir esas bandas no utilizadas nunca habría existido tal cosa como una radio “informal”;
  • nuevos servicios podrían ensayarse e ingresar en el mercado adquiriendo ciertas frecuencias y no debiendo esperar una asignación del ente regulador;
  • aumentaría la eficiencia en el uso de las frecuencias, ya que sus propietarios tendrían el incentivo de reducir, “angostar” el uso de sus bandas para permitir otros usos y obtener así mayores beneficios. Esto fomentaría el desarrollo de nuevas tecnologías y equipos. La “escasez” del espectro sería efectivamente reducida. A medida que la tecnología avanza es posible reducir las separaciones entre frecuencias y crear espacio para nuevos usos o usuarios. Por ejemplo, es técnicamente factible reducir el ancho de la banda de TV por 5, 10 y hasta 100, pero no existe un incentivo económico para ello, ya que se está utilizando hasta este momento un recurso “gratuito”.

Mientras discuten la intervención a la AFSCA, veamos si no es mejor tener derechos de propiedad (II)

La intervención de la AFSCA ha generado un debate acerca del método y la supuesta autonomía de la agencia. Pero no se discute el fondo: ¿debería existir? En el post anterior vimos los argumentos que se presentan para justificar la propiedad estatal de las frecuencias. Ahora comenzaremos a ver las que justifican la propiedad privada:

«Esta ha sido la justificación para la intervención estatal y el control del gobierno sobre el espectro electromagnético. Se pensaba que el mercado iba a llevar al caos, ya que los emisores se superpondrían, y era necesario poner “orden”. Esto también se basa en la experiencia de los primeros años de la radio, donde los TAF eran “propiedad común”, es decir, de nadie en particular, y los usuarios se lanzaban no sólo a emitir sino a interferir en las señales de sus competidores.

Sin embargo, lo que sucedía no era el “caos” del mercado, sino que no se había permitido la evolución de los derechos de propiedad sobre las unidades TAF, de tal manera que sus propietarios pudieran hacer valer sus derechos ante la justicia, así como el propietario de un inmueble puede hacerlo ante su invasión. El uso simultáneo de una unidad TAF no era diferente de los problemas que se plantean para el uso simultáneo de cualquier otro recurso[1].

Como todo recurso escaso, debe ser administrado su uso, ya que si fuera de acceso abierto nos encontraríamos nuevamente en presencia de la “tragedia de los comunes”, la que en este caso adquiriría la forma de interferencia entre las señales de unos y otros, entre los intentos de comunicarse de las distintas personas.

Nuevamente, como hemos visto antes, tenemos dos alternativas principales: la que hace uso de esa institución “evolutiva” que es el derecho de propiedad, tan utilizado para resolver otras “tragedias de los comunes”, el que termina definiendo el uso del recurso en forma descentralizada y con múltiples ensayos; o podemos intentar hacerlo a través de la regulación centralizada y la decisión de alguna agencia regulatoria.

La experiencia con este segundo método no es muy alentadora (Coase, 1959). La Federal Communications Commision es el organismo regulador del espectro de frecuencias en los Estados Unidos. La FCC, por ejemplo, se manejó con extrema lentitud para evaluar una propuesta para reducir la separación que existe entre las frecuencias de radio AM de 10 kHz a 9 kHz, lo cual hubiera significado el nacimiento de unas 1.000 estaciones de radio nuevas. Otro tanto ha sucedido con el desarrollo de la AM estéreo. En ambos casos, la lentitud se ocasiona por cuestiones “políticas”, en el sentido de que los licenciatarios de frecuencias AM se oponen al ingreso de nuevos oferentes, mientras que quienes tienen licencias de FM se oponen al desarrollo de la AM estéreo, en ambos casos para impedir una mayor competencia.

Otro ejemplo se relaciona con la LPTV (“Low Power TV”), conocida también como sistema MMDS o microondas[2].     A la FCC le llevó diez años finalizar los criterios de asignación de la TV convencional y otros 30 años modificarlos para permitir la aparición de la LPTV. También se demoró tres años en resolver una disputa entre la radio FM y la televisión VHF sobre ciertas frecuencias y diez años en reasignar ciertas frecuencias de la televisión UHF a los teléfonos celulares.

Una historia ya legendaria sobre el manejo político de la autoridad regulatoria se refiere al origen de la FM y al destino de su creador, Edwin Armstrong. Con la determinación de convencer sobre las bondades de la FM, Armstrong solicitó a la FCC frecuencias y un permiso para crear su estación de radio FM. En 1940 la FCC otorgó a la FM el uso de las frecuencias de 40 a 52 MHz. Para fines de la guerra, en 1945, existían ya más de 50 estaciones de FM y unos 500.000 receptores.

No obstante ello, la FCC cambió las asignaciones, trasladando a FM a las actuales bandas de 88-108 MHz y otorgando a la televisión las frecuencias 44-88 MHz (canales 1 a 6) y 174-216 MHz (canales 7-13). Las FM fueron así liquidadas, ya que los usuarios se encontraron con equipos receptores no aptos para captar las transmisiones en las nuevas frecuencias asignadas. Por supuesto que nadie los indemnizó por ello.

Por último, le costó a la empresa de comunicaciones a larga distancia MCI cerca de 2 millones de dólares y 7 meses de trabajo construir sus torres de microondas pero unos 7 años y 12 millones de dólares en costos legales y regulatorios hasta obtener la licencia. [3]

Según han observado muchos investigadores, las agencias regulatorias comienzan su vida como reguladores agresivos de la industria pero, con el transcurso del tiempo, son capturadas por los mismos regulados y terminan compartiendo sus puntos de vista e intereses.

[1] “La interferencia creada por el uso simultáneo de la misma unidad del espectro por dos o más usuarios no es diferente de la interferencia entre usos simultáneos competitivos de cualquier otro recurso. Una porción de tierra no puede utilizarse para cultivar trigo y como parque al mismo tiempo sin interferir un uso con el otro. Un ómnibus no puede transportar cargas desde A hasta B y pasajeros desde A hasta C al mismo tiempo. Los mismos cinco minutos de tiempo de una secretaria no pueden utilizarse para escribir a máquina o para hacer llamadas telefónicas sin cierta degradación de cada función”. (Fountain, John, 1989, p. 135).

[2] “El atractivo de la LPTV no es difícil de entender. Autorizando la construcción de alternativas de baja energía a las estaciones dominantes actualmente en el aire, la FCC no sólo abría una puerta a unas 8.000 estaciones transmisoras nuevas, sino también al relativamente exclusivo mundo capital-intensivo de la transmisión de TV a un nuevo grupo de emprendedores. La FCC empezó a investigar la LPTV hace varios años como una solución casi perfecta al problema de la escasez que había estado en el centro de muchas de sus decisiones regulatorias y que había guiado el otorgamiento de licencias por más de medio siglo. En teoría, otorgándole a una estación de LPTV suficiente energía para transmitir su señal, digamos, de 5 a lo millas, se resolvería el problema de utilización del espectro, que era la razón técnica para limitar las licencias en determinado lugar”.

“Pero la FCC, como otros proponentes de la LPTV, también vio un segundo impacto interesante: el bajo costo relativo de los equipos necesarios -una fracción del equipamiento de toda una estación de televisión- daría acceso a la LPTV a minorías, grupos comunitarios y otros que durante años han luchado mucho, tanto ante la FCC como en las cortes, para tener mayor acceso a la transmisión de TV regular.»

«Después de abrir la puerta a la LPTV, la comisión fue inundada con 6.500 solicitudes, creándose tal desorden administrativo -literalmente una montaña de papeles con pocos lineamientos para decidir quién recibiría los 3.000 a 4.000 lugares disponibles- que congeló el proceso en forma temporaria. Esto demoró la llegada de la LPTV al mercado mientras la cantidad de papel crecía; la montaña creció hasta contener 12.000 solicitudes.» (Diamond, et al, 1983, p. 26).

[3] Confirmando lo anterior, comenta el Dr. John Fountain con respecto a Nueva Zelanda (1989, p. 18): “La vulnerabilidad a los grupos de presión no se elimina con procedimientos de salvaguardia. En verdad, éstos pueden inhibir la eficiencia económica al ser incorporados a los juegos estratégicos de los participantes en la actividad. Más aun, no importa cuán bien dirigidas estén, las agencias regulatorias inevitablemente se hallan limitadas en la sabiduría de sus decisiones por el flujo de información de que disponen”.

“Los grupos de interés que aparecen ante las agencias regulatorias proveen mucha información y análisis que a sus funcionarios les sería imposible o muy costoso obtener en forma independiente. Naturalmente, cada grupo presenta su evidencia de tal manera que sea favorable para su propio caso. Dada la legalidad y formalidad de los procesos, o la falta de acceso a influencias con costos reducidos, la participación en los procesos regulatorios por parte de gran número de consumidores es simplemente muy costosa. Como resultado, es extremadamente difícil -tal vez imposible- que las agencias regulatorias tomen decisiones que sean económicamente eficientes.”

Mientras discuten la intervención a la AFSCA, veamos mejor si esta agencia debería existir (I)

Mientras se discute la intervención de la AFSCA (Autoridad Federal de Servicios de Comunicación Audiovisual) presentaré parte del contenido del libro El Foro y el Bazar sobre uno de los aspectos que administra y regula esta agencia, las frecuencias electromagnéticas:

                «Uno de los temas más controvertidos en materia de telecomunicaciones es el del manejo del espectro de frecuencias radioeléctricas, tal vez porque se trata de un tema con alto contenido técnico que parece fuera del alcance de quien no tenga conocimientos avanzados en ingeniería.

                Sin embargo, como trataremos de explicar aquí, no se diferencia de cualquier otro recurso como la tierra, las maquinarias, los minerales o los bosques. No obstante ello, los derechos de propiedad sobre el espectro electromagnético no se han desarrollado por haber quedado bajo el mandato de instituciones de planificación centralizada, tanto a nivel nacional como, a través de tratados e instituciones, internacional.

                ¿Qué es, específicamente, el espectro electromagnético? La energía electromagnética se traslada en forma de campos eléctricos y magnéticos oscilantes. Lo que se denomina “frecuencia” es el nivel de oscilaciones que se mide en unidades de ciclos por segundo, o hertzios. El espectro de frecuencias varía desde 0 Hz hasta los rayos cósmicos, con una frecuencia de 1025 (diez a la veinticinco). Lo que normalmente se denomina frecuencias de radio son las que sirven para las telecomunicaciones, desde 10 kHz hasta 300.000 MHz.

                La transmisión se origina cuando se produce energía en una frecuencia específica en un transmisor, y se carga en ella un mensaje codificado controlando cuidadosamente las características físicas de la energía (modulando). Esa codificación se realiza como variaciones en el modelo de oscilación de la frecuencia. Toda fuente de energía emite estas señales; los transmisores, las manchas solares, el encendido de un auto, etcétera. La energía ya codificada con un mensaje es lanzada por una antena y es interceptada y seleccionada por un receptor que la decodifica.

                Distintos tipos de transmisión requieren distintos anchos de bandas de frecuencias. Así, por ejemplo, una estación de radio FM ocupa unos 240 kHz, una llamada telefónica entre 12,5 kHz para los celulares, 25 kHz utilizando “banda ciudadana” y 36 kHz con modulación FM, un programa de televisión utiliza entre 5.000 y 7.000 kHz y unas diez veces más cuando es transmitido desde un satélite.

                Existen algunos principios que es necesario tener en cuenta:

1.            La potencia de la señal decrece a medida que uno se aleja de la fuente emisora (algo que cualquiera comprueba claramente cuando viaja en automóvil).

2.            Las señales emitidas no pueden limitarse exactamente a la frecuencia señalada sino que generan cierta energía en otras bandas. Esto se debe a un problema de costos y tecnología para evitar esta “externalidad”, es decir, el perjuicio impuesto por los actuales transmisores a otras bandas es menor que el costo que significaría desarrollar nuevos equipos que eliminen el problema, aunque el avance tecnológico con el tiempo lo hará posible.

3.            El comportamiento de la señal emitida no puede predecirse exactamente, ya que, por ejemplo, su alcance depende de ciertos factores como los edificios, las maquinarias y otros de carácter didáctico, como las condiciones atmosféricas, así como de las irregularidades del terreno, de la actividad solar, etcétera.

4.            Lo que interesa es la potencia relativa de la señal, esto es, en cl caso de una radio, que la emisión en una frecuencia determinada supere y “ahogue” la externalidad mencionada en el punto 2. Cuanto más se acerque la relación señal-interferencia a la unidad, mayor será la interferencia y los receptores no podrán diferenciar entre las dos señales que reciben. Si la señal es lo suficientemente superior y puede filtrarse la interferencia, se elimina el problema.

                La necesidad de asignar frecuencias a usos y usuarios específicos se debe a la capacidad limitada de los receptores de diferenciar señales. Por esa razón, si dos transmisores coinciden en la frecuencia de sus mensajes, en el tiempo y en el espacio geográfico, se interfieren entre sí. Debe conseguirse diferenciar entre por lo menos una de las variables antes mencionadas. Esto es, o las transmisiones se realizan en tiempos diferentes (unas por la tarde, otras por la noche, por ejemplo) en las mismas frecuencias y zona geográfica; o se realizan en distintas frecuencias, pudiendo coincidir en el tiempo y en la zona geográfica (como las distintas radios AM y FM en una ciudad ); o deben estar suficientemente separadas para que la potencia de ambas no interfiera entre sí (un radio de una ciudad y de otra) para lo cual existen dos formas de separarlas, sea asignando a un emisor una zona geográfica determinada (por ejemplo, Buenos Aires y un radio de 50 km.) o una potencia de emisión determinada (lo que es lo mismo, pues se calcula que con esa potencia se cubre cierta área geográfica).

                Estas dimensiones componen lo que se conoce como TAF (tiempo/área/frecuencia), que sirve como unidad para definir una unidad de recurso. No puede haber dos usos simultáneos en cada unidad TAF, pues si no se genera interferencia.

La política económica de Macri es ‘neokeynesiana’, ‘supply side’, o todavía una mezcla de todo eso (I)

El nuevo gobierno argentino ha comenzado a tomar medidas en el ámbito económico, entre las que se destaca por el momento la eliminación del cepo cambiario y de casi todos los impuestos a las exportaciones. Falta todavía conocer su política monetaria y fiscal, elementos fundamentales de todo programa de política económica. Pero ya ha comenzado a discutirse cuál es la visión que lo define. Así, por ejemplo, el diario El Cronista, reproduce un artículo de Martín Tetaz originalmente publicado en el semanario El Economista, titulado “Macri, el neokeynesiano”: http://www.cronista.com/3dias/Macri-el-neokeynesiano-20151224-0055.html

El artículo comienza señalando un elemento central de la cosmovisión keynesiana:

“Uno de los aportes más disruptivos de la «Teoría General» de John Maynard Keynes fue el planteo de que, al contrario de la Ley de Say, que sostenía que toda oferta generaba su propia demanda, era la demanda agregada la que determinaba la oferta.”

Que ésta fue la visión de Keynes es absolutamente correcto. Que haya interpretado correctamente a Say es otra cosa. Es que así simplificada, la Ley de Say parece absurda; pero lo que Say decía no es tan difícil de entender. Supongamos una economía de trueque: para obtener algo que necesito o quiero poseer, ofrezco algo a cambio. Es decir, tengo que tener algo para ofrecer, tengo que haber producido algo, para luego poder demandar. La producción es primero. Sucede también a nivel personal: no salgo a la calle y por el hecho de gastar se me genera un ingreso; primero trabajo, produzco, obtengo un ingreso, y luego estoy en capacidad de consumir. Eso es lo que decía Say. Si agregamos el dinero, es simplemente un medio de intercambio para facilitar mi oferta y mi demanda.

Ahora vienen los neokeynesianos: “La novedad de los pensadores neokeynesianos como Pierangelo Garegnani, Franklin Serrano y Anthony Thirlwall es que, además de subirse a la idea que ya había planteado Michael Kaleki en el sentido de que la inversión era endógena en el ingreso, dando lugar a un supermultiplicador, pusieron en debate el poder de la demanda efectiva para empujar el ingreso más allá de las fluctuaciones cíclicas de corto plazo, abriendo una teoría neokeynesiana no ya de las crisis sino del desarrollo.”

Si ahora incluyo a la inversión del lado de la demanda, he demostrado que ésta es el motor de la economía básicamente porque no he dejado casi nada del otro lado. ¿Qué queda del lado de la oferta? En fin, lo que se venía produciendo antes. Como le he quitado todos los elementos dinámicos que podrán impulsarla, no queda otra que el impulso venga de otro lado, de la demanda.

Esto parece algo así como analizar las cosas al revés: todo lo que promueva el crecimiento económico será llamado “impulso de la demanda”. Pero no creo que nos ayude a entender lo que realmente sucede. Son bien distintas las decisiones del consumidor y las del que invierte para aumentar la producción, aunque para hacerla efectiva ‘demande’ bienes de producción o insumos.

En particular, lo visto hasta ahora por parte del gobierno de Macri parece calificar algo, tal vez, más cerca de la Ley de Say que de políticas keynesianas o neo. De hecho, la liberación del cepo, de las retenciones a las exportaciones y el aumento de las tasas de interés tendrán dos efectos iniciales: reducir el consumo y aumentar el ahorro y la inversión. Las economías regionales comienzan a activarse, al igual que la producción agrícola y otras. Eventualmente los mayores ingresos generados por esa mayor inversión, por el aumento de la producción (inversión en nuevos equipos o en bienes intermedios para la producción) aumentarán el consumo. Algo similar ocurrió con la devaluación del 2002, cuando se reactivó la producción primero y algo después el consumo. Esto es más ‘supply side’.

Por otro lado, la disminución de las cargas impositivas sobre los salarios y el aumento de la Asignación Universal calificarían como impulso de la demanda. Dentro de un repertorio ‘keynesiano’ habría que incluir también el proteccionismo a través de la extensión de posiciones arancelarias alcanzadas ahora por licencias no automáticas, aunque es cierto que reemplazan a un sistema peor o, al menos, más discrecional.

En definitiva, parece haber una mezcla, y tal vez siga siempre así. La etiqueta está por definirse.