Deaton: la Mano Invisible y la Revolución Industrial explican cómo se duplicó la esperanza de vida

En su libro The Great Escape, el último premio Nobel en Economía, Angus Deaton, explica como algunas sociedades escaparon a la pobreza, aunque esto incrementara inicialmente la desigualdad, y aquí como el crecimiento económico desatado por la Revolución Industrial fue clave para duplicar la esperanza de vida:

“¿Qué pasó en Inglaterra? ¿Qué hizo que la expectativa de vida se duplicara, de 40 a casi 80 años, en un siglo y medio? Dada la larga historia de miles de años de esperanza de vida estable o incluso cayendo, este es sin duda uno de los cambios más favorables, rápidos y dramáticos en la historia de la humanidad. No solamente casi todos los recién nacidos vivirán para ser adultos, sino que cada joven adulto tendrá más tiempo para desarrollar sus capacidades, pasiones y vida, un incremento enorme en la posibilidades y el potencial para el bienestar.”

Life expectancy

El cuadro que se presenta muestra la evolución de la esperanza de vida al nacer y a los 15 años. A principios de 1900 la esperanza de vida a los 15 años, o adulta, era mayor que al nacer; el cambio se explica por la caída de la mortalidad infantil. Deaton cita al fundador de la medicina social, Thomas McKeown, quien enfatiza que el crecimiento económico ha sido más importante para eso que las nuevas medicinas.

“McKeown, quien era médico, concluyó que la medicina no había sido muy útil (incluso sostuvo que cuanto más alto el estatus del médico, probablemente más inútil) y concluyó que las raíces de la mejora sanitaria se encontraban en el progreso económico y social, especialmente en una mejor nutrición y condiciones de vida. McKeown fue el primero de una larga lista de médicos que llegaron a sentir que  sus propios esfuerzos profesionales poco podían hacer para mejorar la salud pública, y se concentraron en enfermedades sociales más generales, como la pobreza y la destitución, a las que vieron como las causas fundamentales de la pobre salud. McKeown pensaba que una mejora gradual de las condiciones materiales de vida, tales como mejor alimentación y vivienda, eran mucho más importantes que el cuidado médico, e incluso que las medidas de salud pública. Las opiniones de McKeown, actualizadas a nuestras circunstancias, son todavía importantes en el debate entre quienes piensan que la salud es determinada principalmente por los descubrimientos médicos y el tratamiento y quienes miran al trasfondo de las condiciones sociales de vida.

La nutrición fue, claramente, parte de la historia del comienzo de la reducción de la mortalidad. La población de Inglaterra en los siglos XVIII y XIX consumía menos calorías de las necesarias para que los niños crezcan en todo su potencial y para que los adultos mantuvieran un funcionamiento corporal saludable para realizar un trabajo productivo y remunerativo. La gente era flaca y muy baja, tal vez tan petisa como en cualquier momento anterior. A través de la historia, la gente se adaptó a la falta de calorías creciendo poco y siendo pequeños. No solamente es una asombrosa consecuencia de no tener suficiente para comer, especialmente en la infancia, pero cuerpos más pequeños requieren menos calorías básicas para subsistir, y hacen posible trabajar con menos alimento de lo que necesitaría una persona más grande. Un trabajador de dos metros de altura y más de cien kilos de peso hubiera sobrevivido en el siglo XVIII como un astronauta en la Luna sin su traje espacial; en promedio simplemente no había suficiente alimentación para sostener una población con las dimensiones físicas de hoy.”

Mientras discuten la intervención a la AFSCA, veamos cómo asignaron propiedad otros países (IV)

¿Cómo se podría implementar un sistema de derechos de propiedad en las frecuencias del espectro electromagnético? Sería necesario seguir una serie de pasos:

  1. Como se comentara, la asignación de segmentos de frecuencias para determinados usos es realizada por la Unión Internacional de Telecomunicaciones. Por tratarse de un convenio internacional sobre el que un gobierno no puede imponer su voluntad, sería necesario seguir las asignaciones allí efectuadas con las siguientes consideraciones:
  1. plantear el problema de la asignación burocrática de frecuencias y proponer el desarrollo de derechos de propiedad;
  2. solicitar modificaciones a la asignación en la medida en que el funcionamiento del mercado así lo vaya mostrando.
  1. En materia local, el gobierno nacional tiene soberanía como para decidir la forma de asignar frecuencias, por lo que se definiría el mecanismo de asignación de derechos de propiedad dentro de los segmentos asignados por la UIT. Al respecto se presentan dos situaciones diferentes: las frecuencias que ya han sido asignadas a determinados usuarios y las que se encuentran libres.
  1. Con respecto a las primeras, éstas son por un tiempo limitado, por lo que se presentan las siguientes alternativas:
  2. a) esperar hasta el final de la concesión y licitar la venta de la frecuencia respectiva, o
  3. b) llegar a un acuerdo con el actual concesionario para finalizar la concesión y proceder a su licitación. Como ese acuerdo significaría una cierta “compensación” al concesionario actual, se permitiría el uso de aquélla como parte de la cotización en la licitación.
  4. Con respecto a las frecuencias libres, se procedería a su licitación al mejor postor, quien debería cumplir con los usos asignados por la UIT solicitar una modificación que el gobierno nacional presentaría ante el organismo.

 

¿Cómo resolverían los derechos de propiedad el problema de las interferencias?

Es necesario tener en cuenta que el nivel de interferencia no tiene por qué ser cero, como mencionáramos antes. Si la interferencia debería ser tolerada o reducida y quién debería ser responsable de ello son aspectos que dependen de los beneficios relativos de cada uso en comparación con los costos de obtener los niveles adecuados de servicios. El funcionamiento del mercado y la vigencia de los derechos de propiedad ofrecerían a los propietarios de las frecuencias dos caminos:

–          acuerdos voluntarios por los cuales el que causa interferencia en la propiedad de otro busca reducirla (modificación de la potencia de transmisión, direccionamiento de la antena, control de la frecuencia de emisión, antenas direccionales), o el interferido lo hace (filtros, etc.). Ambas acciones tienen costos, y lo que está en discusión es quién asume los costos. Una posibilidad es alcanzar acuerdos voluntarios;

–          acudir a mediadores o árbitros seleccionados por las dos partes, lo cual permitiría crear un paso previo, y más eficiente, al recurso a la justicia. Muy probablemente, asociaciones de los mismos usuarios de frecuencias, radios, radioaficionados, ofrecerían estos servicios de mediación, hasta en los casos que involucren a asociaciones de otras entidades.

Este tipo de solución fue adoptada por Nueva Zelanda. La Ley de Radiocomunicaciones de 1989 creó derechos de propiedad sobre las frecuencias o canales específicos (llamados “derechos de control”). Las empresas privadas adquieren su derecho por dos medios: (1) subastas públicas, en el momento que el Ministerio saca a la venta un canal o gama de frecuencias, y (2) en el mercado privado de estos derechos, es decir a otros que ya los poseen.

Algo similar ocurrió en Guatemala a partir de la aprobación de una nueva Ley de Telecomunicaciones en 1996[1]. En el siguiente gráfico puede observarse la cantidad de subastas realizadas por tipo de frecuencia, durante los años 1996-2004:

El resultado era de esperar. Los propietarios de emisoras invierten más porque ya no tienen dudas sobre la licencia. La competencia entre las compañías de telefonía móvil es fuerte, pues saben que no existe un número limitado de licencias y que cualquiera puede ofrecer ese servicio con sólo pedir o adquirir derechos necesarios. Durante los nueve años del gráfico, Guatemala, siendo un país pobre de casi 13 millones de habitantes, pasó de tener 400.000 líneas a más de 10 millones. El país se ha convertido en un banco de pruebas de empresas como Qualcomm para investigar nuevos usos de las distintas frecuencias[2].

 

[1] Así lo comenta el Lic. José Toledo, quien fuera director de la Superintendencia de Telecomunicaciones: “Se creó la figura novedosa de los Títulos de Usufructo que es nominativo y tiene posibilidades de negociarse. Allí se hablaba de un mercado secundario de estos títulos. De alguna forma esto se dio. Yo fui testigo de muchos endosos de estos títulos, que se pueden transferir y endosar. Sólo basta con registrarlos, obviamente la única función de la Superintendencia es que se haga un registro y aquí viene la otra novedad – insisto la ley dice que el espectro radioeléctrico es propiedad del estado – entonces se creó la figura del Título de Usufructo por 15 años, pero bueno y después de 15 años ¿qué?, pues hay un pequeño artículo, un inciso allí en la ley que dice que basta con que el propietario demuestre que durante esos 15 años uso la frecuencia y se le prorroga automáticamente otros 15 y así sucesivamente, y eso basta que lo demuestre, pues puede haber sido una sola vez, no pone ningún tipo de limitación, la ley así pues crea esta novedad funcionando muy bien”. Toledo, José, (2005).

[2] Comenta David Couso Diaz: No hace mucho, el sector Radiocomunicaciones de la ITU, a través de la Unidad de Políticas de la ITU, ha reflexionado en un Taller (Workshop on radio spectrum management for a converging world, Ginebra, 16-18 de febrero de 2004 (http://www.itu.int/osg/spu/ni/spectrum/) sobre la gestión del espectro, tras constatar que la convergencia de los servicios no ha venido acompañada, en la mayor parte de los países, de un cambio en un modelo de gestión ya centenario. El primer dato relevante es el de los fallos en la planificación/atribución, ante el hecho evidente de que las fronteras entre los servicios contemplados en el Reglamento de Radiocomunicaciones se desdibujan: El teléfono móvil capta, en algunos países, la señal de televisión en directo, permite acceso de banda ancha inalámbrico, es mucho más que un servicio móvil. Por otra parte, la convergencia tecnológica impone que una sola aplicación/Terminal pueda prestar servicios diferentes, manejando diferentes rangos de frecuencias. La respuesta de los reguladores a estas dificultades no ha sido homogénea: en un extremo de la escala están los países que, como España, se mantienen fieles al modelo tradicional de mando y control, con atribución rígida y asignación concursada, en caso de escasez de frecuencias, mientras que en un lugar intermedio se situarían las legislaciones y los reguladores que optan por adjudicar cada vez más segmentos del espectro en base a competiciones de mercado (subastas) o, en tercer lugar, admiten posteriormente un mercado secundario de los derechos de uso que (con alguna variante) proporciona esa convergencia. Se busca así la asignación más rápida, flexible y eficiente del espectro, puesto que se espera que las frecuencias en cuestión sean destinadas a la tecnología más demandada y que ofrezca un mejor servicio al menor coste.

Normalmente estas medidas se introducen en un sistema de derechos exclusivos, pero también puede manifestarse en el incremento de bandas de espectro sin licencia que confiere mayor posibilidad de comercio a las empresas al recaer sobre determinadas bandas de frecuencias que por sí mismas no demandan un uso concreto. Aunque en España ni siquiera se haya utilizado sistemáticamente el modelo de “mercado primario” del espectro (es decir, la adjudicación y asignación de derechos de uso individuales mediante mecanismos de subasta competitiva) prefiriendo en general el “concurso” cuando exista limitación, o el otorgamiento a todos los solicitantes por orden de llegada, en la medida en que el Derecho comunitario optó por establecer esta posibilidad, ahora recogida, de forma un tanto tenue, en el párrafo final del número 2 del art. 45, al que luego nos referiremos (es claro que existe un modelo de gestión de mercado).

 

Mientras discuten la intervención a la AFSCA, veamos porqué sería mejor asignar propiedad (III)

Hasta el momento, los gobiernos han asumido la propiedad del espectro electromagnético y su distribución. Este proceso se efectúa a partir de acuerdos que han realizado los gobiernos en el marco de la Unión Internacional de Telecomunicaciones, UIT, organismo que define el uso que ha de asignarse a cada segmento de bandas. El organismo nacional define a su vez quiénes harán uso de las bandas específicas en el segmento ya definido.

                Esta definición no solamente tiene un impacto económico, sino también político, de magnitud. Esto no solamente afecta a la eficiencia económica sino al derecho a la libertad de prensa. Como el gobierno asigna las frecuencias, también controla la forma en que se usan e incluso puede llegar a no otorgar o renovar una licencia si espera críticas por parte de un medio periodístico que las utiliza para hacer llegar sus contenidos. El caso reciente de Venezuela es un ejemplo. Sin calidad institucional, sin división y limitación al poder, las políticas regulatorias terminan siendo instrumento de los intereses creados o de los intereses del gobernante.

Ahora bien, la pregunta que debe hacerse en este punto, y que se relaciona con la posibilidad de los planificadores y reguladores de obtener información, es: ¿Sobre la base de qué criterios (información) ha de asignarse cierto segmento de bandas a determinado uso?

Dado el carácter técnico de esta materia, se aduce que son estos criterios los que se toman en cuenta. Sin embargo, dentro de las limitaciones que la tecnología del momento imponga, lo cierto es que existen distintos usos posibles del espectro.

Para empezar: la UIT ha dividido al mundo en tres zonas y las asignaciones no son las mismas en cada una de ellas, tratando de adaptarlas a las particulares necesidades de cada una. Si esto es así, ¿qué información permite tomar esa decisión sobre lo que es más deseable en Asia o en América?

Ante la ausencia de mecanismos de mercado (precios), ya hemos analizado la imposibilidad de evaluar las distintas alternativas, si no es tomando solamente en cuenta las personales preferencias de los funcionarios encargados de la asignación. Al realizar esa asignación, tanto la UIT como la agencia local deben juzgar la utilidad económica para los consumidores de cada uno de los servicios. Si se asignan a un uso determinado, reducen al mismo tiempo la cantidad de frecuencias (utilidades TAF) para otros usos. Ya comentamos cómo se quitaron las frecuencias de radio FM para la televisión, y lo mismo sucede con el uso de la transmisión directa satelital y los servicios de microondas. El poder que tienen las agencias estatales que administran el espectro equivale al que tendría el Estado si definiera el tamaño y la forma de todas las propiedades inmuebles y aprobara todas las transacciones de tierras.

Precisamente, una de las principales enseñanzas del reciente fracaso del socialismo en todo el mundo ha sido destacar la importancia de la propiedad, tanto por los incentivos que genera como por la información (su intercambio), esto es, los precios. Los precios envían información sobre la disponibilidad o la escasez de los bienes y servicios en una sociedad, y permiten comparar usos alternativos de acuerdo con las valoraciones individuales. Si existe una alta demanda de servicios telefónicos celulares, habrá emprendedores que ofrecerán precios más altos por el uso de frecuencias con este destino, y quienes las utilicen para otros servicios se sentirán motivados para reasignar su uso.

Los precios proveen un estándar objetivo para realizar esa asignación, que, en su ausencia, debe realizarse como se hace actualmente, siendo el funcionario estatal el que evalúa, como menciona la ley de radiodifusión, la calidad “moral” de cierto interesado y controla quiénes forman parte de los directorios de las radios.

La existencia de precios es importante, además, pues el uso del espectro electromagnético para las telecomunicaciones está compitiendo además con otros medios de transmisión como los cables, lo que está experimentando un gran avance (fibra óptica). Nuevamente, no existe forma de comparar entre la utilización de frecuencias o cables.

La alternativa es permitir el desarrollo de derechos de propiedad en unidades TAF que posean dueños con derechos exclusivos de uso, la transferencia entre usos o a otros usuarios, la subdivisión y la posibilidad de obtener ganancias o de sufrir pérdidas. Esto daría origen a precios de estas unidades TAF y crearía los siguientes incentivos:

  • llevaría a una asignación más eficiente de este recurso escaso
  • permitiría el libre ingreso y aumentaría la competencia. El ejemplo de las radios FM “informales” y su imposibilidad de ingresar legalmente en el mercado con la planificación es claro. Si hubieran podido adquirir esas bandas no utilizadas nunca habría existido tal cosa como una radio “informal”;
  • nuevos servicios podrían ensayarse e ingresar en el mercado adquiriendo ciertas frecuencias y no debiendo esperar una asignación del ente regulador;
  • aumentaría la eficiencia en el uso de las frecuencias, ya que sus propietarios tendrían el incentivo de reducir, “angostar” el uso de sus bandas para permitir otros usos y obtener así mayores beneficios. Esto fomentaría el desarrollo de nuevas tecnologías y equipos. La “escasez” del espectro sería efectivamente reducida. A medida que la tecnología avanza es posible reducir las separaciones entre frecuencias y crear espacio para nuevos usos o usuarios. Por ejemplo, es técnicamente factible reducir el ancho de la banda de TV por 5, 10 y hasta 100, pero no existe un incentivo económico para ello, ya que se está utilizando hasta este momento un recurso “gratuito”.

Mientras discuten la intervención a la AFSCA, veamos si no es mejor tener derechos de propiedad (II)

La intervención de la AFSCA ha generado un debate acerca del método y la supuesta autonomía de la agencia. Pero no se discute el fondo: ¿debería existir? En el post anterior vimos los argumentos que se presentan para justificar la propiedad estatal de las frecuencias. Ahora comenzaremos a ver las que justifican la propiedad privada:

«Esta ha sido la justificación para la intervención estatal y el control del gobierno sobre el espectro electromagnético. Se pensaba que el mercado iba a llevar al caos, ya que los emisores se superpondrían, y era necesario poner “orden”. Esto también se basa en la experiencia de los primeros años de la radio, donde los TAF eran “propiedad común”, es decir, de nadie en particular, y los usuarios se lanzaban no sólo a emitir sino a interferir en las señales de sus competidores.

Sin embargo, lo que sucedía no era el “caos” del mercado, sino que no se había permitido la evolución de los derechos de propiedad sobre las unidades TAF, de tal manera que sus propietarios pudieran hacer valer sus derechos ante la justicia, así como el propietario de un inmueble puede hacerlo ante su invasión. El uso simultáneo de una unidad TAF no era diferente de los problemas que se plantean para el uso simultáneo de cualquier otro recurso[1].

Como todo recurso escaso, debe ser administrado su uso, ya que si fuera de acceso abierto nos encontraríamos nuevamente en presencia de la “tragedia de los comunes”, la que en este caso adquiriría la forma de interferencia entre las señales de unos y otros, entre los intentos de comunicarse de las distintas personas.

Nuevamente, como hemos visto antes, tenemos dos alternativas principales: la que hace uso de esa institución “evolutiva” que es el derecho de propiedad, tan utilizado para resolver otras “tragedias de los comunes”, el que termina definiendo el uso del recurso en forma descentralizada y con múltiples ensayos; o podemos intentar hacerlo a través de la regulación centralizada y la decisión de alguna agencia regulatoria.

La experiencia con este segundo método no es muy alentadora (Coase, 1959). La Federal Communications Commision es el organismo regulador del espectro de frecuencias en los Estados Unidos. La FCC, por ejemplo, se manejó con extrema lentitud para evaluar una propuesta para reducir la separación que existe entre las frecuencias de radio AM de 10 kHz a 9 kHz, lo cual hubiera significado el nacimiento de unas 1.000 estaciones de radio nuevas. Otro tanto ha sucedido con el desarrollo de la AM estéreo. En ambos casos, la lentitud se ocasiona por cuestiones “políticas”, en el sentido de que los licenciatarios de frecuencias AM se oponen al ingreso de nuevos oferentes, mientras que quienes tienen licencias de FM se oponen al desarrollo de la AM estéreo, en ambos casos para impedir una mayor competencia.

Otro ejemplo se relaciona con la LPTV (“Low Power TV”), conocida también como sistema MMDS o microondas[2].     A la FCC le llevó diez años finalizar los criterios de asignación de la TV convencional y otros 30 años modificarlos para permitir la aparición de la LPTV. También se demoró tres años en resolver una disputa entre la radio FM y la televisión VHF sobre ciertas frecuencias y diez años en reasignar ciertas frecuencias de la televisión UHF a los teléfonos celulares.

Una historia ya legendaria sobre el manejo político de la autoridad regulatoria se refiere al origen de la FM y al destino de su creador, Edwin Armstrong. Con la determinación de convencer sobre las bondades de la FM, Armstrong solicitó a la FCC frecuencias y un permiso para crear su estación de radio FM. En 1940 la FCC otorgó a la FM el uso de las frecuencias de 40 a 52 MHz. Para fines de la guerra, en 1945, existían ya más de 50 estaciones de FM y unos 500.000 receptores.

No obstante ello, la FCC cambió las asignaciones, trasladando a FM a las actuales bandas de 88-108 MHz y otorgando a la televisión las frecuencias 44-88 MHz (canales 1 a 6) y 174-216 MHz (canales 7-13). Las FM fueron así liquidadas, ya que los usuarios se encontraron con equipos receptores no aptos para captar las transmisiones en las nuevas frecuencias asignadas. Por supuesto que nadie los indemnizó por ello.

Por último, le costó a la empresa de comunicaciones a larga distancia MCI cerca de 2 millones de dólares y 7 meses de trabajo construir sus torres de microondas pero unos 7 años y 12 millones de dólares en costos legales y regulatorios hasta obtener la licencia. [3]

Según han observado muchos investigadores, las agencias regulatorias comienzan su vida como reguladores agresivos de la industria pero, con el transcurso del tiempo, son capturadas por los mismos regulados y terminan compartiendo sus puntos de vista e intereses.

[1] “La interferencia creada por el uso simultáneo de la misma unidad del espectro por dos o más usuarios no es diferente de la interferencia entre usos simultáneos competitivos de cualquier otro recurso. Una porción de tierra no puede utilizarse para cultivar trigo y como parque al mismo tiempo sin interferir un uso con el otro. Un ómnibus no puede transportar cargas desde A hasta B y pasajeros desde A hasta C al mismo tiempo. Los mismos cinco minutos de tiempo de una secretaria no pueden utilizarse para escribir a máquina o para hacer llamadas telefónicas sin cierta degradación de cada función”. (Fountain, John, 1989, p. 135).

[2] “El atractivo de la LPTV no es difícil de entender. Autorizando la construcción de alternativas de baja energía a las estaciones dominantes actualmente en el aire, la FCC no sólo abría una puerta a unas 8.000 estaciones transmisoras nuevas, sino también al relativamente exclusivo mundo capital-intensivo de la transmisión de TV a un nuevo grupo de emprendedores. La FCC empezó a investigar la LPTV hace varios años como una solución casi perfecta al problema de la escasez que había estado en el centro de muchas de sus decisiones regulatorias y que había guiado el otorgamiento de licencias por más de medio siglo. En teoría, otorgándole a una estación de LPTV suficiente energía para transmitir su señal, digamos, de 5 a lo millas, se resolvería el problema de utilización del espectro, que era la razón técnica para limitar las licencias en determinado lugar”.

“Pero la FCC, como otros proponentes de la LPTV, también vio un segundo impacto interesante: el bajo costo relativo de los equipos necesarios -una fracción del equipamiento de toda una estación de televisión- daría acceso a la LPTV a minorías, grupos comunitarios y otros que durante años han luchado mucho, tanto ante la FCC como en las cortes, para tener mayor acceso a la transmisión de TV regular.»

«Después de abrir la puerta a la LPTV, la comisión fue inundada con 6.500 solicitudes, creándose tal desorden administrativo -literalmente una montaña de papeles con pocos lineamientos para decidir quién recibiría los 3.000 a 4.000 lugares disponibles- que congeló el proceso en forma temporaria. Esto demoró la llegada de la LPTV al mercado mientras la cantidad de papel crecía; la montaña creció hasta contener 12.000 solicitudes.» (Diamond, et al, 1983, p. 26).

[3] Confirmando lo anterior, comenta el Dr. John Fountain con respecto a Nueva Zelanda (1989, p. 18): “La vulnerabilidad a los grupos de presión no se elimina con procedimientos de salvaguardia. En verdad, éstos pueden inhibir la eficiencia económica al ser incorporados a los juegos estratégicos de los participantes en la actividad. Más aun, no importa cuán bien dirigidas estén, las agencias regulatorias inevitablemente se hallan limitadas en la sabiduría de sus decisiones por el flujo de información de que disponen”.

“Los grupos de interés que aparecen ante las agencias regulatorias proveen mucha información y análisis que a sus funcionarios les sería imposible o muy costoso obtener en forma independiente. Naturalmente, cada grupo presenta su evidencia de tal manera que sea favorable para su propio caso. Dada la legalidad y formalidad de los procesos, o la falta de acceso a influencias con costos reducidos, la participación en los procesos regulatorios por parte de gran número de consumidores es simplemente muy costosa. Como resultado, es extremadamente difícil -tal vez imposible- que las agencias regulatorias tomen decisiones que sean económicamente eficientes.”

Mientras discuten la intervención a la AFSCA, veamos mejor si esta agencia debería existir (I)

Mientras se discute la intervención de la AFSCA (Autoridad Federal de Servicios de Comunicación Audiovisual) presentaré parte del contenido del libro El Foro y el Bazar sobre uno de los aspectos que administra y regula esta agencia, las frecuencias electromagnéticas:

                «Uno de los temas más controvertidos en materia de telecomunicaciones es el del manejo del espectro de frecuencias radioeléctricas, tal vez porque se trata de un tema con alto contenido técnico que parece fuera del alcance de quien no tenga conocimientos avanzados en ingeniería.

                Sin embargo, como trataremos de explicar aquí, no se diferencia de cualquier otro recurso como la tierra, las maquinarias, los minerales o los bosques. No obstante ello, los derechos de propiedad sobre el espectro electromagnético no se han desarrollado por haber quedado bajo el mandato de instituciones de planificación centralizada, tanto a nivel nacional como, a través de tratados e instituciones, internacional.

                ¿Qué es, específicamente, el espectro electromagnético? La energía electromagnética se traslada en forma de campos eléctricos y magnéticos oscilantes. Lo que se denomina “frecuencia” es el nivel de oscilaciones que se mide en unidades de ciclos por segundo, o hertzios. El espectro de frecuencias varía desde 0 Hz hasta los rayos cósmicos, con una frecuencia de 1025 (diez a la veinticinco). Lo que normalmente se denomina frecuencias de radio son las que sirven para las telecomunicaciones, desde 10 kHz hasta 300.000 MHz.

                La transmisión se origina cuando se produce energía en una frecuencia específica en un transmisor, y se carga en ella un mensaje codificado controlando cuidadosamente las características físicas de la energía (modulando). Esa codificación se realiza como variaciones en el modelo de oscilación de la frecuencia. Toda fuente de energía emite estas señales; los transmisores, las manchas solares, el encendido de un auto, etcétera. La energía ya codificada con un mensaje es lanzada por una antena y es interceptada y seleccionada por un receptor que la decodifica.

                Distintos tipos de transmisión requieren distintos anchos de bandas de frecuencias. Así, por ejemplo, una estación de radio FM ocupa unos 240 kHz, una llamada telefónica entre 12,5 kHz para los celulares, 25 kHz utilizando “banda ciudadana” y 36 kHz con modulación FM, un programa de televisión utiliza entre 5.000 y 7.000 kHz y unas diez veces más cuando es transmitido desde un satélite.

                Existen algunos principios que es necesario tener en cuenta:

1.            La potencia de la señal decrece a medida que uno se aleja de la fuente emisora (algo que cualquiera comprueba claramente cuando viaja en automóvil).

2.            Las señales emitidas no pueden limitarse exactamente a la frecuencia señalada sino que generan cierta energía en otras bandas. Esto se debe a un problema de costos y tecnología para evitar esta “externalidad”, es decir, el perjuicio impuesto por los actuales transmisores a otras bandas es menor que el costo que significaría desarrollar nuevos equipos que eliminen el problema, aunque el avance tecnológico con el tiempo lo hará posible.

3.            El comportamiento de la señal emitida no puede predecirse exactamente, ya que, por ejemplo, su alcance depende de ciertos factores como los edificios, las maquinarias y otros de carácter didáctico, como las condiciones atmosféricas, así como de las irregularidades del terreno, de la actividad solar, etcétera.

4.            Lo que interesa es la potencia relativa de la señal, esto es, en cl caso de una radio, que la emisión en una frecuencia determinada supere y “ahogue” la externalidad mencionada en el punto 2. Cuanto más se acerque la relación señal-interferencia a la unidad, mayor será la interferencia y los receptores no podrán diferenciar entre las dos señales que reciben. Si la señal es lo suficientemente superior y puede filtrarse la interferencia, se elimina el problema.

                La necesidad de asignar frecuencias a usos y usuarios específicos se debe a la capacidad limitada de los receptores de diferenciar señales. Por esa razón, si dos transmisores coinciden en la frecuencia de sus mensajes, en el tiempo y en el espacio geográfico, se interfieren entre sí. Debe conseguirse diferenciar entre por lo menos una de las variables antes mencionadas. Esto es, o las transmisiones se realizan en tiempos diferentes (unas por la tarde, otras por la noche, por ejemplo) en las mismas frecuencias y zona geográfica; o se realizan en distintas frecuencias, pudiendo coincidir en el tiempo y en la zona geográfica (como las distintas radios AM y FM en una ciudad ); o deben estar suficientemente separadas para que la potencia de ambas no interfiera entre sí (un radio de una ciudad y de otra) para lo cual existen dos formas de separarlas, sea asignando a un emisor una zona geográfica determinada (por ejemplo, Buenos Aires y un radio de 50 km.) o una potencia de emisión determinada (lo que es lo mismo, pues se calcula que con esa potencia se cubre cierta área geográfica).

                Estas dimensiones componen lo que se conoce como TAF (tiempo/área/frecuencia), que sirve como unidad para definir una unidad de recurso. No puede haber dos usos simultáneos en cada unidad TAF, pues si no se genera interferencia.

¿La política económica de Macri es ‘neokeynesiana’? Antes del ‘neo’, ya lo discutieron Hayek y Keynes

Consideraba en un post anterior comentarios acerca de cuál sería la visión económica del nuevo gobierno argentino y un artículo de Martín Tetaz originalmente publicado en el semanario El Economista, titulado “Macri, el neokeynesiano”: http://www.cronista.com/3dias/Macri-el-neokeynesiano-20151224-0055.html

En particular: “La novedad de los pensadores neokeynesianos como Pierangelo Garegnani, Franklin Serrano y Anthony Thirlwall es que, además de subirse a la idea que ya había planteado Michael Kaleki en el sentido de que la inversión era endógena en el ingreso, dando lugar a un supermultiplicador, pusieron en debate el poder de la demanda efectiva para empujar el ingreso más allá de las fluctuaciones cíclicas de corto plazo, abriendo una teoría neokeynesiana no ya de las crisis sino del desarrollo.”

Este tema, fue parte de toda la discusión entre Hayek y Keynes respecto a los orígenes del ciclo económico, que ocurriera principalmente en la década de los años 1930. La discusión, también con Piero Sraffa, tuvo lugar en una serie de artículos, comentarios, cartas y respuestas entre los tres economistas. Aquí algunos comentarios posteriores de Hayek (The Keynes Centenary: The Austrian Critique):

Hayek4

“En la tradición de Cambridge que regía el breve estudio de economía que tuvo Keynes, la teoría Mill-Jevons del capital, luego desarrollada por Böhm-Bawerk y Wicksell, no era considerada seriamente. Para 1930 estas ideas habían sido en buena medida olvidadas en el mundo de habla inglesa. Junto con la mayoría de mis colegas profesionales, podría haber aceptado rápidamente la elaboración de Keynes, esa creencia común acerca de una dependencia directa del empleo en la demanda agregada. Sin embargo, no solamente había sido educado en la tradición Böhm-Bawerk-Wicksell, sino, justo antes de la publicación el Tratado sobre el Dinero de Keynes, había dedicado mucho tiempo a un esfuerzo algo similar pero mucho más básico en los Estados Unidos para desarrollar una teoría monetaria sobre las causas del sub-consumo. Para este propósito había desarrollado un poco más la teoría Wicksell-Mises sobre la sobre-estimulación monetaria de la inversión que, pensaba, refutaba el supuesto simple de la dependencia directa de la inversión de la demanda final que Keynes había iniciado.”

“En el transcurso de los años tuve varias oportunidades de discutir estas cuestiones con Keynes. Se hizo claro que nuestras diferencias se explicaban por su rechazo total a cuestionar ese supuesto.”

“Como los determinantes del empleo que no sean la demanda final son los factores que la macroeconomía keynesiana tan fatalmente niega, una evaluación de su papel histórico debe intentar reflotar este aspecto de la economía. Resulta útil concebir el flujo continuo de la producción como un gran río que puede, independientemente de la succión de su desembocadura, crecer o bajar en sus diferentes partes a medida que sus numerosos afluentes agregan más o menos volumen. Las fluctuaciones en la inversión y reemplazo ocasionarán que la corriente aumente o reduzca el volumen de la corriente aguas arriba con los consiguientes cambios en el empleo, como ocurre en el curso de las fluctuaciones industriales. No hay una correspondencia necesaria entre el volumen (o incluso la dirección del cambio) de las ventas finales de consumo durante un período y el empleo en ese mismo plazo.”

“El volumen de la inversión está lejos de moverse proporcionalmente a la demanda final. No solamente la tasa de interés sino también los precios relativos de los distintos factores de producción y particularmente las distintas clases de trabajo la afectarán, además del cambio tecnológico. La inversión dependerá del volumen de las diferentes partes de la corriente, mientras que en cualquier momento determinado el empleo total de los factores de producción será mayor o menor que la demanda efectiva de los productos finales. Los determinantes inmediatos que dirigen la corriente principal del río no será la demanda final sino la estructura de precios relativos de los diferentes factores de producción: las distintas clases de trabajo, de productos semi-terminados, materias primas y, por supuesto, las tasas de interés.”

“Cuando, dirigidos por estos precios relativos, la corriente total cambia su forma, el empleo cambiará en sus diferentes etapas a ritmos muy diferentes. Algunas veces toda la corrientes, se alarga, proveyendo empleos adicionales, mientras que otras se acortará. Esto puede ocasionar fuertes fluctuaciones en el volumen del empleo, particularmente en las industrias ‘pesadas’ y en la construcción, sin que haya ningún cambio en la demanda de consumo en la misma dirección. Es un hecho histórico bien conocido que en una recesión la recuperación de la demanda final es generalmente un efecto más que la causa de la reactivación en las etapas más altas de la corriente de producción –actividades generadas por ahorros que buscan invertirse y por la necesidad de reiniciar renovaciones y reemplazos postergados.”

“El punto importante es que estos movimientos independientes de los diferentes niveles de la corriente de producción son causados por cambios en los precios relativos de los distintos factores: algunos atraídos por los mejores precios de las etapas tempranas del proceso o viceversa. Esta reasignación constante de recursos resulta totalmente escondida por el análisis que Keynes quiso adoptar y que desde entonces se conoce como ‘macroeconomía’: un análisis en términos de las relaciones entre los distintos agregados o promedios, tal como la demanda o la oferta agregada, precios promedio, etc. Este enfoque oscurece el carácter del mecanismo por el cual la demanda de distintas clases de actividades se determina.”

La política económica de Macri es ‘neokeynesiana’, ‘supply side’, o todavía una mezcla de todo eso (I)

El nuevo gobierno argentino ha comenzado a tomar medidas en el ámbito económico, entre las que se destaca por el momento la eliminación del cepo cambiario y de casi todos los impuestos a las exportaciones. Falta todavía conocer su política monetaria y fiscal, elementos fundamentales de todo programa de política económica. Pero ya ha comenzado a discutirse cuál es la visión que lo define. Así, por ejemplo, el diario El Cronista, reproduce un artículo de Martín Tetaz originalmente publicado en el semanario El Economista, titulado “Macri, el neokeynesiano”: http://www.cronista.com/3dias/Macri-el-neokeynesiano-20151224-0055.html

El artículo comienza señalando un elemento central de la cosmovisión keynesiana:

“Uno de los aportes más disruptivos de la «Teoría General» de John Maynard Keynes fue el planteo de que, al contrario de la Ley de Say, que sostenía que toda oferta generaba su propia demanda, era la demanda agregada la que determinaba la oferta.”

Que ésta fue la visión de Keynes es absolutamente correcto. Que haya interpretado correctamente a Say es otra cosa. Es que así simplificada, la Ley de Say parece absurda; pero lo que Say decía no es tan difícil de entender. Supongamos una economía de trueque: para obtener algo que necesito o quiero poseer, ofrezco algo a cambio. Es decir, tengo que tener algo para ofrecer, tengo que haber producido algo, para luego poder demandar. La producción es primero. Sucede también a nivel personal: no salgo a la calle y por el hecho de gastar se me genera un ingreso; primero trabajo, produzco, obtengo un ingreso, y luego estoy en capacidad de consumir. Eso es lo que decía Say. Si agregamos el dinero, es simplemente un medio de intercambio para facilitar mi oferta y mi demanda.

Ahora vienen los neokeynesianos: “La novedad de los pensadores neokeynesianos como Pierangelo Garegnani, Franklin Serrano y Anthony Thirlwall es que, además de subirse a la idea que ya había planteado Michael Kaleki en el sentido de que la inversión era endógena en el ingreso, dando lugar a un supermultiplicador, pusieron en debate el poder de la demanda efectiva para empujar el ingreso más allá de las fluctuaciones cíclicas de corto plazo, abriendo una teoría neokeynesiana no ya de las crisis sino del desarrollo.”

Si ahora incluyo a la inversión del lado de la demanda, he demostrado que ésta es el motor de la economía básicamente porque no he dejado casi nada del otro lado. ¿Qué queda del lado de la oferta? En fin, lo que se venía produciendo antes. Como le he quitado todos los elementos dinámicos que podrán impulsarla, no queda otra que el impulso venga de otro lado, de la demanda.

Esto parece algo así como analizar las cosas al revés: todo lo que promueva el crecimiento económico será llamado “impulso de la demanda”. Pero no creo que nos ayude a entender lo que realmente sucede. Son bien distintas las decisiones del consumidor y las del que invierte para aumentar la producción, aunque para hacerla efectiva ‘demande’ bienes de producción o insumos.

En particular, lo visto hasta ahora por parte del gobierno de Macri parece calificar algo, tal vez, más cerca de la Ley de Say que de políticas keynesianas o neo. De hecho, la liberación del cepo, de las retenciones a las exportaciones y el aumento de las tasas de interés tendrán dos efectos iniciales: reducir el consumo y aumentar el ahorro y la inversión. Las economías regionales comienzan a activarse, al igual que la producción agrícola y otras. Eventualmente los mayores ingresos generados por esa mayor inversión, por el aumento de la producción (inversión en nuevos equipos o en bienes intermedios para la producción) aumentarán el consumo. Algo similar ocurrió con la devaluación del 2002, cuando se reactivó la producción primero y algo después el consumo. Esto es más ‘supply side’.

Por otro lado, la disminución de las cargas impositivas sobre los salarios y el aumento de la Asignación Universal calificarían como impulso de la demanda. Dentro de un repertorio ‘keynesiano’ habría que incluir también el proteccionismo a través de la extensión de posiciones arancelarias alcanzadas ahora por licencias no automáticas, aunque es cierto que reemplazan a un sistema peor o, al menos, más discrecional.

En definitiva, parece haber una mezcla, y tal vez siga siempre así. La etiqueta está por definirse.

Mejor es comer productos alimenticios naturales en Navidad. Pero, ¿qué es un alimento «natural»?

En Navidad solemos comer muchas cosas, aparentemente no muy saludables. Es mucho mejor comer alimentos ‘naturales’, y así es cómo las regulaciones en el mundo en forma creciente apuntan a lograr ese objetivo. Ahora bien, ¿qué es ‘natural’? Henry Miller, Robert Weson Fellow in Scientific Philosophy and Public Policy, Hoover Institution, Stanford University; y Drew Kershen, Earl Sneed Centennial Professor of Law (emeritus), University of Oklahoma College of Law, analizan el tema en relación a las regulaciones sobre el contenido de las etiquetas de los alimentos en la revista Regulation del Cato Institute: http://object.cato.org/sites/cato.org/files/serials/files/regulation/2015/3/regulation-v38n1-7.pdf

Allimentos

El tema no es menor por estos lares, más allá de la cuestión específica de las fiestas de fin de año, ya que el uso de semillas genéticamente modificadas en la producción de soja, por ejemplo, o en la genética animal plantea también la discusión respecto a la característica ‘natural’ o ‘artificial’ de estos productos

Además de tratar sobre esas regulaciones, los autores consideran el tema más general acerca de qué es ‘natural’, parte de la discusión fundamental sobre los productos genéticamente modificados. Dicen:

“… también somos escépticos respecto al intento de la Food and Drug Administration de definir alimentos ‘naturales’. Ese intento es desviar la atención hacia una falacia. En un mundo donde la genética de prácticamente todo organismo que se comercializa ha sido formada en alguna medida por la mano del hombre, ¿puede tener sentido el término ‘natural’?

En la última década, se han presentado numerosos juicios masivos contra las empresas de alimentos solicitando pagos por daños por falsa propaganda cuando la compañía colocaba la frase ‘todo natural’ o ‘100% natural’ en las etiquetas de los productos alimenticios. A pesar de muchos pedidos – algunos realizados por jueces federales- la FDA no ha querido definir el término ‘natural’, la última vez en Enero de 2014. La agencia gubernamental sostiene que tiene prioridades más importantes para su tiempo y sus recursos que meterse en este enredo filosófico e ideológico que lleva años. A lo sumo, este ejercicio poco tendría que ver con la salubridad o la calidad de los alimentos; en efecto, sería el equivalente regulatorio de tratar de determinar cuántos ángeles pueden bailar en la cabeza de un alfiler.”

Deaton, el Iluminismo y la salud: primero se beneficiaron los que podían pagar, luego llegó a todos

Angus Deaton, el ultimo premio Nobel en Economía, comenta sobre el impacto de las ideas en el progreso y la calidad de vida en su libro “The Great Escape”. EN el gráfico siguiente pueden verse las estimaciones de expectativa de vida de la población general en Inglaterra desde mediados del siglo XVI a mediados del siglo XIX. Hay bruscas fluctuaciones ocasionadas por plagas, viruela, peste bubónica, gripe, pero no parece haber una tendencia definida. Sí la hay en los puntos redondos que reflejan la expectativa de vida de la aristocracia. Lo que muestra es que éstos no tenían mejores expectativas de vida que la población general hasta un cierto punto en que se abre una gran brecha. ¿Qué ocurrió? EN sus palabras

Deaton

“No sabemos con seguridad porqué se abrió la brecha, pero hay muchas buenas suposiciones. Fue la época del Iluminismo Inglés, reseñado por el historiador Roy Porter como el momento en que la gente dejó de preguntarse ‘¿cómo puedo salvarme?’; una pregunta que había traído algo menos que caos en al siglo anterior, incluyendo una guerra civil, y pasó a preguntarse ¿cómo puedo ser feliz?’ La gente comenzó a buscar el logro personal, más que la virtud por la obediencia a la iglesia y a cumplir con los deberes apropiados para su lugar en la sociedad’. Se podía ahora perseguir la felicidad utilizando a la razón para desafiar la forma tradicional de hacer las cosas, y encontrando formas de mejorar la propia vida, incluyendo las posesiones materiales y la salud. Immanuel Kant definió al Iluminismo con la frase ‘Anímate a saber! Ten el coraje de utilizar tu propio entendimiento!. Durante el Iluminismo, la gente se arriesgó a desafiar el dogma aceptado y fueron más dispuestos a experimentar nuevas técnicas para hacer las cosas. Una de las formas en que la gente comenzó a utilizar su propio entendimiento fue en la medicina y en la lucha contra las enfermedades, probando nuevos tratamientos. Muchas de estas innovaciones –en esta temprana era de la globalización- llegaron desde otros países. Las nuevas medicinas y tratamientos eran, a menudo, difíciles de obtener y caros por lo que, al principio, pocos los podían pagar.”

“No hay forma de cuantificar los efectos de estas innovaciones en la mortalidad, y algunas incluso son controversiales. Sin embargo, hay una fuerte presunción de que estas innovaciones –todas el resultado de mejor conocimiento científico, y resultado de la nueva apertura a la prueba y el error- fueron responsables de una mejor salud para los nobles y la familia real hacia fines del siglo XVII. AL principio, como eran caras y no muy apreciadas, se reducían a aquellos que eran ricos o bien informados, por lo que surgieron nuevas desigualdades en la salid. Pero esas desigualdades también guiaron a las mejoras generales que estaban por llegar, a medida que las medicinas y los métodos se abarataban, y llevaron a nuevas innovaciones relacionadas que pudieron ahora cubrir a toda la población, como la vacuna contra la viruela luego de 1799 o el movimiento sanitario para limpiar las ciudades.”

Planes sociales y la relación entre los beneficios recibidos y el incentivo para conseguir un trabajo

Un tema que inevitablemente se viene en la Argentina es el de los planes sociales y si estos generan incentivos para buscar trabajo, el verdadero ‘plan’ que permite salir de la pobreza en forma digna. El Cato Institute publicó un análisis sobre este tema, comparando a los Estados Unidos y Europa, por Michael Tanner y Charles Hughes, titulado “The Work versus Welfare Trade-Off: Europe”: http://www.cato.org/publications/policy-analysis/work-versus-welfare-trade-europe

Aquí el resumen de su análisis y conclusiones:

“Si los beneficios sociales se vuelven demasiado generosos, pueden crear un importante incentivo que alienta a los receptores a depender de ellos más que a buscar empleo. En los países de la Unión Europea esos beneficios varían mucho según el país, pero en la mayoría son altos en relación a lo que una persona podría esperar obtener en un empleo con bajo sueldo o de principiante. Por ejemplo, para un padre o madre solo, con dos hijos, en 2013:

  • Los beneficios sociales en nueve países de la UE superaban los 15.000 euros (unos 18.200 dólares por año). En seis países, los beneficios superaban los 20.000 euros. Dinamarca ofrece el paquete más generoso, por un total de 31.709 euros (38.558 dólares en momentos que se publicó el trabajo).
  • En nueve países los beneficios exceden al salario mínimo.
  • Los beneficios en once países superan a la mitad del ingreso neto de alguien que gane el salario promedio en tal país, y en seis países excede el 60% del promedio neto de ingreso salarial
  • En Austria, Croacia y Dinamarca, la tasa impositiva marginal efectiva para quien deja un plan social para ir a un trabajo es casi del 100%, lo que significa que una persona no ganaría prácticamente ningún ingreso adicional por trabajar. En otros 16 países, las personas se encuentran con una tasa impositiva marginal efectiva superior al 50%.
  • Los beneficios en los Estados Unidos son similares a los de los principales estados benefactores. Excluyendo Medicaid, Estados Unidos se ubicaría décimo entre los países de la UE analizados, más generoso que Francia y algo menos que Suecia. Treinta y cinco estados ofrecen un paquete más generoso que el paquete de beneficios medio en los países europeos analizados.

Muchos países europeos han reconocido el problema y han comenzado a reformar sus sistemas  sociales para generar una mejor transición de esos planes a puestos de trabajo. De hecho, los Estados Unidos están quedando atrás de algunos países europeos en relación a estos planes.

Los países que seriamente quieren reducir la dependencia de los planes sociales y recompensar el trabajo deberían considerar fortalecer los requisitos de trabajo, estableciendo un tiempo límite en la participación en los planes, y endurecer los requisitos para calificar. Tal vez más importante, los países deberían examinar los niveles de beneficios disponibles y las tasas impositivas marginales efectivas que sus planes sociales crean, con vistas a reducir los desincentivos y alentar el trabajo.”