2. ANTECEDENTES

 

 

 

2.1  ANTECEDENTES MUNDIALES

 

 

 

Los estudios de vulnerabilidad sísmica en edificaciones existentes no pudieron aparecer sin que primero la humanidad entendiera a través de la experiencia, que los sismos terrestres no pueden ser controlados por el hombre.  A pesar que las normas de construcción datan de 20 siglos antes de nuestra era con el conocido código de Hamurabi, rey de Babilonia, ha sido hasta el siglo XX que los científicos han "explotado" las lecciones que dejan los sismos para que hoy se tengan modernos códigos de construcción sismo resistente.

 

Según Sarria [59], a raíz del sismo de Mesina, Italia en 1908, una comisión compuesta por ingenieros dedicados a la práctica de la ingeniería civil fue encargada de analizar los efectos del sismo y proponer las medidas que consideraran convenientes para que en un supuesto evento similar en el futuro, los daños fueran menores.  En 1909 la comisión recomendó que los edificios deberían diseñarse para una carga lateral equivalente a 1/12 del peso.

 

Posterior al sismo de Tokio, Japón en 1923, los ingenieros japoneses encontraron que los peores daños habían ocurrido en los edificios de mampostería mientras que los de concreto reforzado y madera pocos daños relativos habían sufrido.  A raíz de varias discusiones se propuso los primeros conceptos de diseño sismo resistente:  frente a las cargas sísmicas, un edificio debía comportarse tan cerca de lo que es un cuerpo rígido, como las circunstancias lo permitieran; se debía emplear plantas tan simétricas como fuera posible; se debía emplear paredes rígidas mientras fuera posible, manteniendo la continuidad de estos elementos desde la cimentación hasta la cubierta; las fuerzas sísmicas se repartían a las líneas de columnas en proporción a las rigideces del pórtico o sistema estructural.

 

Japón, localizado en la zona de mayor actividad sísmica del mundo y actualmente líder mundial en el campo de la ingeniería sísmica según la AIJ [3], logró por primera vez construir un edificio sismo resistente que sobrepasara 31 metros de altura en 1968.  El método de diseño utilizado simulaba respuestas dinámicas en un computador y fue desarrollado por el Dr. Kiyoshi Muto, quien fuera presidente en una época de la AIJ (Architectural Institute of Japan) [3] y cuyo edificio alcanzó 156 metros de altura.  El edificio se llamó Kasumigaseki.

 

Sarria [59] menciona que en los Estados Unidos, el primer intento de normalización se produjo en 1927 a raíz del sismo de Santa Bárbara.  En 1933 ocurrió el sismo de Long Beach que motivó al gobierno del estado a encargar a su División de Arquitectura la preparación de un reglamento de construcción.  Este reglamento exigía, entre otras cosas, que los edificios de mampostería no reforzada se debían diseñar para resistir una carga lateral igual al diez por ciento de la suma de la carga muerta y una porción de la carga viva.  En 1974 el Consejo de Tecnología Aplicada, ATC, de California formó un grupo muy sólido de ingenieros y científicos que propusieron unas bases de normalización y apareció el documento "Tentative Provisions for the Development of Seismic Regulations for Buildings", conocido con el nombre de ATC-3-06 [14].  Este documento conformó las bases de la elaboración de un buen número de códigos modernos de construcción sismo resistente en el mundo [59] y de estudios de vulnerabilidad sísmica en edificaciones existentes.

 

Los estudios de vulnerabilidad sísmica en edificaciones existentes tienen su origen en las llamadas Técnicas de Screening durante la década de los 60s y 70s.  Estas técnicas fundamentalmente trataban de cuantificar la resistencia de la estructura por aproximaciones, con el fin de determinar la capacidad de una estructura existente ante cargas monotónicas.  Algunos de estos métodos por lo tanto, fueron la base para posteriores métodos que para el caso sísmico, incluyeron estimaciones de la ductilidad y de desplazamiento lateral de la estructura.

 

Entre estos posteriores métodos ha existido una gran diversidad desde sus orígenes y a nivel mundial se han propuesto desde entonces métodos como el de Whitman, 1972; ATC-14, 1987; ATC-21, 1988; Grases, 1985; Iglesias, 1985; Okada T., Bresler B., 1976; Petrovski J., Milutinovik Z., 1985; entre otros [25].

 

A finales de la década de los 70s e inicio de la de los 80s, ciudades tan importantes como Los Angeles y San Francisco, centros urbanos con reconocida amenaza sísmica para ese entonces, iniciaron y presentaron estudios de vulnerabilidad sísmica a gran escala, VSG, utilizando métodos probabilísticos para el primer caso, y métodos determinísticos para el segundo.  Ya en esa época el UNDRO (Organismo de las Naciones Unidas encargado de la atención de desastres), en conjunto con la UNESCO, definieron criterios como:  amenaza, vulnerabilidad y riesgo, de la siguiente manera [63]:

 

Amenaza (hazard):  es un peligro latente asociado con un fenómeno físico, de origen natural o tecnológico, que puede presentarse en un sitio específico y en un tiempo determinado, produciendo efectos adversos en las personas, los bienes y/o el medio ambiente; matemáticamente expresado como la probabilidad de exceder un nivel de ocurrencia de un evento con una cierta intensidad, en un cierto sitio y en un cierto período de tiempo.

 

Vulnerabilidad:  grado de pérdida de un elemento, o grupo de elementos, por la probable ocurrencia de un evento desastroso.

 

Riesgo:  destrucción o pérdida esperada obtenida de la convolución de la probabilidad de ocurrencia de eventos peligrosos y de la vulnerabilidad de los elementos expuestos a tales amenazas, matemáticamente expresado como la probabilidad de exceder un nivel de consecuencias económicas en un cierto sitio y en un cierto período de tiempo.

 

Por lo tanto, estas definiciones presentadas en 1979 llevaban a expresar el riego sísmico, de una manera sencilla, como:

 

Riesgo = Amenaza Sísmica x Vulnerabilidad

 

En esta forma sin embargo, no era tan fácil de reconocer varios efectos inducidos y efectos de sitio, que son importantes para estimar la cantidad de pérdidas no solamente de edificios, pero también de la economía, y de otras partes del ambiente construido, como el patrimonio histórico, infraestructuras y otras instalaciones, igualmente importantes para la sociedad y para su economía.

 

Por esta razón, a finales de la década de los 90s una versión más compleja de la definición ha sido incorporada en la literatura mundial y puede expresarse como [52]:

 

Riesgo = Amenaza Sísmica x Peligro Físico Inducido x Vulnerabilidad Sistemática

 

El segundo factor se refiere a esos sucesos que pueden ser provocados por el terreno sacudido, como derrumbes, mientras la posterior se refiere a la vulnerabilidad de sistemas urbanos y regionales, que ya no son considerados como una suma simple de la vulnerabilidad de estructuras expuestas, como había sido el caso hasta inicios de la década de los 90s.

 

Con esta definición se han introducido algunas nuevas perspectivas al incorporar nuevos elementos y al tratar de manera diferente otros que se consideraron ya en estudios previos.  El primero trata de entrelazar parámetros midiendo sistemas sociales y económicos así como también el ambiente construido, con factores más técnicos, relativos al peligro sísmico, que habían sido incluidos siempre en los análisis sísmicos de riesgo.

 

Los esfuerzos que se están haciendo actualmente están dirigidos a proveer a los usuarios finales una herramienta compleja de evaluación que considera ambos:  el componente de peligro y la respuesta de sistemas vulnerables, en la dirección de vencer enfoques más tradicionales, donde algunas observaciones en el sistema social se agregaron simplemente como un apéndice a una evaluación de riesgo efectuada únicamente sobre una base técnica.