Capítulo 1

INTRODUCCION AL DISEÑO ESTRUCTURAL

1.1 ASPECTOS BASICOS DEL DISEÑO ESTRUCTURAL

1.1.1 Diseño Estructural

El objetivo final del diseño estructural es proveer una estructura segura y económica para satisfacer una necesidad específica. Por seguridad entendemos la capacidad resistente de la estructura para servir sin fallas durante su vida útil. Por cierto, el diseño incorpora consideraciones de orden económico, ya que siempre pueden haber soluciones alternativas, y para cada una de ellas un óptimo, o costo mínimo, al que se procura llegar.

En cualquier proyecto podemos distinguir las siguientes etapas:

Identificación de una necesidad

Anteproyecto (Ingeniería Conceptual e Ingeniería Básica)

Proyecto (Ingeniería de Detalle)

Ejecución

La necesidad puede ser de cualquier índole: vivienda, hospital, infraestructura de transporte, o una planta industrial, entre infinitos ejemplos. En cualquiera de estos casos habrá de realizarse un anteproyecto que requiere la identificación de todos los elementos necesarios y sus características fundamentales, o etapa de ingeniería conceptual, para realizar una estimación preliminar de los costos con el objeto de evaluar la justificación económica del proyecto (pre-factibilidad). Esta estimación se realiza en base a datos existentes y experiencia de proyectos similares, por ello puede tener un margen de error del orden del 25 a 30 %.

Si la pre-factibilidad da resultado positivo, se pasa a la etapa de ingeniería básica, que consiste en pulir el anteproyecto, definiendo en forma más precisa los componentes (especificaciones de equipos, necesidades de energía, layout, obras civiles y especificaciones en general). En esta etapa hay que realizar estudios simples preliminares, pero ellos ciertamente implican un gasto en horas-hombre. Como resultado, el anteproyecto quedará mejor definido reduciéndose el margen de error en los costos al rango de un 15 a 20 %.

En un proyecto civil, la construcción de un puente por ejemplo, los estudios preliminares comprenderán diversas disciplinas como: Transporte, Hidrología, Hidráulica, Geotécnica, Estructural, Eléctrica, Derechos (servidumbre de paso y expropiaciones), Impacto Ambiental, Impacto Social, Sistema Constructivo, etc. El anteproyecto producido sirve de base para el estudio de factibilidad definitivo, después del cual podrá tomarse la decisión de realizar el proyecto y pasar a la etapa de ingeniería de detalle o proyecto definitivo. La ingeniería de detalle comprende la ejecución de los planos y especificaciones completas para la construcción, equipamiento, montaje y puesta en marcha del proyecto. El diseño estructural interviene en la etapa de anteproyecto primero con la concepción de una forma estructural apropiada al caso y una estimación de su costo, y posteriormente con la producción de un prediseño de estructuración. En la etapa de proyecto se desarrollará el diseño definitivo incluyendo planos de detalles estructurales.

Las etapas del diseño estructural son las siguientes:

Estructuración

Análisis

Dimensionamiento

La estructuración comprende la definición de la forma, o tipo estructural, incluyendo el material a usar. Por ejemplo, un edificio de hormigón armado se puede estructurar en base a marcos, en base a muros, o a una combinación de ambos; en cada uno de estos casos hay que optar entre alternativas, por ejemplo, en el caso de estructura de marcos habrá que definir cuántas columnas tendrá cada plano resistente, es decir, decidir el espaciamiento entre ellas. En el caso de un puente, puede estructurarse como un reticulado de acero, un arco de hormigón armado, una losa sobre vigas de hormigón pretensado, una losa sobre vigas de acero o una infinidad de alternativas que dependen principalmente de la luz a cubrir. En todo caso, la estructuración que prevalecerá en definitiva será aquella que, satisfaciendo todas las condiciones de seguridad y funcionalidad de la obra, tenga el mínimo costo.

El análisis comprende la modelación de la estructura y el cálculo de deformaciones y esfuerzos internos de sus elementos. Este es un campo bien desarrollado de la Ingeniería Estructural en el que se dispone de herramientas computacionales poderosas. Tales herramientas, sin embargo, están en constante revisión según progresa el conocimiento del comportamiento real de los materiales.

El dimensionamiento, comúnmente llamado también “diseño” de los elementos, requiere la consideración del tipo de solicitación (carga axial, flexión, corte, torsión), del comportamiento del elemento frente a tal solicitación, en lo que obviamente incide el material a usar, y del nivel de seguridad que es razonable adoptar. Cabe destacar que el diseño no es exclusivamente un problema de resistencia, ya que con frecuencia pueden controlar las condiciones de serviciabilidad, por ejemplo, la limitación de deformaciones para el adecuado funcionamiento o prestación de servicio de un elemento.

Una característica esencial de la formulación de un proyecto o del desarrollo de un diseño estructural es que se trata de problemas cuyas variables están inicialmente indefinidas y su conocimiento va progresando a medida que se avanza en la solución del problema. Este es un aspecto importante de destacar, pues marca una diferencia con el tipo de problema al que los estudiantes se han visto enfrentados a este nivel de sus estudios de Ingeniería: generalmente han resuelto problemas matemáticos o físicos bien definidos previamente mediante un número de datos fijos, y cuya solución se expresa en función de tales datos. En diseño, en cambio, se parte de un problema indefinido, es decir, hay que proponer una forma (estructuración o dimensión), lo que corresponde a darse los “datos” antes de poder proceder al análisis y al dimensionamiento mismo. La primera proposición generalmente podrá perfeccionarse, corrigiendo los “datos” iniciales, o incluso volviendo a comenzar con una nueva “forma”. Ello hace que el diseño se pueda interpretar como un proceso de aproximaciones sucesivas, en que una primera solución se va mejorando en la medida en que los datos” mismos se van precisando, como se muestra en la Fig. 1.1.

Figura 1.1
Etapas del proceso de diseño estructural

Por cierto, siempre es posible plantear el conjunto completo de ecuaciones que rigen un problema, y escoger entre las infinitas soluciones posibles aplicando algún criterio de optimización. Pero este no es el objetivo de este curso, ni es la forma de trabajo usual en la práctica; la idea es que el estudiante aprenda a trabajar apegado al sentido físico del problema, ponderando la influencia de las variables que intervienen y desarrollando la capacidad de prever el resultado. Así, antes de plantear el conjunto de ecuaciones complejas que eventualmente resuelven el problema, él debe tener una idea o estimación de cuál será el resultado, o el orden de magnitud de la solución; así, los cálculos le ayudarán a perfeccionar o pulir su estimación inicial, mientras tal estimación le permitirá juzgar los resultados analíticos que obtenga y resguardarse de un eventual error de cálculo.

En esta perspectiva también, se pretende que el estudiante se familiarice con conceptos fundamentales de validez permanente, y con los parámetros más relevantes de cada problema de diseño, sin necesidad de ir al detalle propio de un curso de diseño en un material específico conforme a una normativa particular, normativa que, por lo demás, es cambiante en el tiempo. En tal sentido, el curso no se orienta a especialistas en diseño estructural sino a sentar bases sólidas en aspectos fundamentales del diseño que son esenciales para el Ingeniero Civil.

1.1.2 Factor de Seguridad y Confiabilidad Estructural

En términos muy generales, entendemos por seguridad el evitar que la estructura o elemento alcance o sobrepase un estado límite hasta el cual se considera que el comportamiento de la estructura es aceptable. Tal estado límite es el de falla o colapso de un elemento o de la estructura completa. Para establecer una medida cuantitativa de la seguridad se introduce el concepto de factor de seguridad cuya evaluación requiere comparar la “demanda” de resistencia (solicitación o carga) con la capacidad “suministrada” a la estructura (su resistencia máxima).

La concepción más simplista del factor de seguridad puede ilustrarse con el siguiente ejemplo: el cable de una grúa debe ser capaz de resistir una carga de 3 toneladas, y se ha seleccionado un cable de acero de calidad y sección tal que su resistencia nominal de rotura es de 5 toneladas. Decimos entonces que el factor de seguridad (FS) a la rotura del cable es:

El hipotético problema anterior nos induce de inmediato a pensar que si existiera certeza de que la carga máxima no excederá de 3 toneladas, bastaría con una resistencia levemente superior para evitar la rotura, y por tanto se podría usar un cable más económico. Sin embargo, en la realidad hay incertidumbre respecto al valor preciso de la carga que el operador puede ser requerido de alzar, como también respecto de la resistencia última real del cable utilizado en esa grúa en particular. En rigor se trata de un problema probabilístico, ya que tanto la solicitación como la capacidad resistente son variables aleatorias. El campo del análisis que comprende la evaluación de la seguridad por medio de modelos probabilísticos de la solicitación y de la resistencia es el de la Confiabilidad Estructural.

Para el análisis de la seguridad estructural se considera separadamente la solicitación S, o carga aplicada, y la resistencia R, o capacidad de un elemento. Como variables aleatorias sus valores no son determinísticos, es decir, no pueden ser fijados con precisión, sino que deben describirse por una función de distribución de probabilidades o función de densidad de probabilidades (FDP). En referencia a S, la Fig. 1.2 muestra la FDP fs(s), en que S es una variable continua que incluye todos los posibles valores de s. Para recordar algunos conceptos elementales de la teoría de probabilidades nótese que por definición, la probabilidad de que S tome un valor igual o menor que un valor so dado es:

en que la función Fs(s) = P(S ≤ s) se conoce como función de distribución acumulada (FDA). La probabilidad dada por la Ec. 1-1 corresponde al área oscura en la Fig. 1.2. La probabilidad que S sea mayor que so es:

Figura 1.2
Función de densidad de probabilidades

Notar que de la Ec. 1-1 se infiere que P(S=so) = 0, porque la longitud del intervalo es nula. O sea, la probabilidad de que una variable aleatoria continua tome un valor dado es nula, y por tanto fs(so) no es una probabilidad, sino la intensidad de la función densidad en so. A su vez, por definición fs(s) ≥ 0, e implícita en la Ec. 1-2 está la condición:

Parámetros o indicadores para describir una variable aleatoria son el valor medio us (o media o valor esperado) de la variable dado por la Ec. 1-4, el que representa el centro de gravedad del área bajo la curva fs(s),

y la varianza σs2 que es una medida de la dispersión de la variable en torno a su valor medio, la que geométricamente corresponde al momento de inercia del área bajo fs(s) con respecto a μs:

Usualmente la dispersión se expresa en términos de la desviación estándar σs (raíz cuadrada de la varianza) o del coeficiente de variación ΩS = σSS. Este último descriptor tiene la ventaja de ser adimensional, por lo que frecuentemente se expresa en tanto por ciento.

Aunque la discusión acerca de cuáles modelos matemáticos se ajustan mejor a las variables en consideración escapa al objetivo de esta sección, cabe mencionar que la distribución log-normal es frecuentemente usada para modelar distribuciones asimétricas de variables que no adoptan valores negativos, como la resistencia R por ejemplo. A su vez, cabe recordar que si una variable (R) tiene distribución logarítmico-normal, significa que el logaritmo natural de la variable (In R) es normal (Gaussiana).

Asimismo, variables que representan el máximo entre un número de observaciones tienen distribuciones de las llamadas extremas. Ciertos tipos de carga tienen estas características: por ejemplo, las cargas de viento y las sobrecargas de uso. En el caso del viento, no interesa un diagrama de frecuencias (FDP) de la velocidad del viento en todo instante o acada hora en un sitio en particular, lo que sí interesa es la velocidad máxima diaria o la velocidad máxima anual. Con la FDP de esta última variable se podrán calcular velocidades de viento asociadas a condiciones relevantes para el diseño, especificadas en términos como los siguientes: la velocidad del viento que se excede en promedio cada 50 años. En este caso, 50 años corresponde a lo que se denomina período de retorno medio, y el valor de diseño asociado “el viento de 50 años”. Este problema se puede modelar con una distribución extrema Tipo II (ver Benjamin y Cornell, 1970).

(*) para área tributaria de 36 m2

Igualmente, en relación con las sobrecargas (o cargas vivas) que se superpondrán a las cargas permanentes (o cargas muertas) que actúan sobre una estructura, interesará la intensidad máxima de la carga durante la vida útil de la estructura o típicamente un período de referencia de 50 años. Las sobrecargas de piso comprenden las cargas sostenidas de ocupación normal (como mobiliario, equipos y personas) y las cargas extraordinarias de corta duración (como la congregación de personas durante una fiesta, o la acumulación de muebles durante una remodelación). En el caso de edificios, las normas especifican sobrecargas de piso uniformemente distribuidas que se supone representan el efecto de cargas concentradas y distribuidas reales que, por cierto, pueden ocurrir en infinitas formas en cuanto a su distribución espacial. Las sobrecargas de diseño especificadas en los códigos pueden reducirse para determinar las cargas sobre elementos afectos a áreas tributarias muy grandes (ver Sección 1.1.5.a). La Tabla 1.1 muestra valores especificados en las normas chilena (NCh1537.Of86), mexicana (RDF-76), y norteamericana (ANSI A58.1, 1981). Como referencia puede indicarse que las cargas dadas por esta última norma conducen a cargas vivas ligeramente inferiors al valor medio de la carga viva máxima en 50 años.

En el caso de los materiales, las resistencias nominales o características son tales que una mínima fracción de la producción no cumple con el valor especificado. Considérese por ejemplo el hormigón, cuya resistencia se mide mediante ensayos de compresión realizados sobre probetas cúbicas o cilíndricas de 28 días de edad, curadas en ambiente húmedo. En particular, el código ACI 318-95 considera probetas cilíndricas de 6x12 pulgadas (diámetro x alto), cuya resistencia de compresión de diseño se especifica como fc’. Esta resistencia es menor que la resistencia promedio del concreto producido fcr’, como se aprecia en la Fig. 1.3. En efecto, el ACI requiere que el fcr’ sea el mayor de los valores dados por las ecuaciones:

con σ igual a la desviación de la producción de acuerdo a lo especificado en el código. La Ec. 1-6, como la interpreta el código ACI, da el menor valor promedio fcr’ tal que, asumiendo distribución normal, asegure una probabilidad de 99 en 100 que la resistencia promedio de tres ensayos consecutivos exceda fc’. Otra forma de interpretar esta ecuación es, como ilustra la Fig. 1.3, que fc’ corresponde al percentil 9, i.e. la probabilidad de que la resistencia del hormigón sea menor que fc’ es de un 9%. A su vez, la Ec. 1-7 corresponde a asegurar que la resistencia de un ensayo cualquiera tiene una probabilidad de 1 en 100 de ser menor que (fc’ - 35).

Figura 1.3
Distribución de resistencias de compresión del hormigón

En el caso del acero rigen varias normas, tanto para el caso de barras de refuerzo a utilizarse en hormigón armado como para planchas utilizadas para producir perfiles metálicos. Típicamente, la resistencia de interés es la correspondiente al punto de fluencia, encontrándose en general que la probabilidad de que la tensión de fluencia sea menor que la nominal especificada por el fabricante es del orden de 3 a 5 %.

Volviendo al problema de confiabilidad estructural hay que aclarar que al referirse a la resistencia R de un elemento se piensa no sólo en la capacidad del material que lo constituye, sino en el conjunto de variables que intervienen en la resistencia, en efecto:

en que las ri son todas variables aleatorias que representan las propiedades mecánicas, los parámetros que pueden afectar dichas propiedades, las propiedades geométricas del elemento y su sección, las condiciones de vinculación del elemento, etc. A su vez, el modelo no sólo debe incluir la incertidumbre implícita en la aleatoreidad de las variables r; sino también aquella asociada con la relación funcional g, es decir, con la imperfección del modelo analítico utilizado para predecir la resistencia R, y el posible sesgo asociado a la calidad de construcción según la práctica usual y el grado de inspección a nivel local o nacional.

Del mismo modo, la solicitación S no corresponde simplemente a un valor especificado de carga, como aquellos en la Tabla 1.1, sino a un efecto, por ejemplo, “al momento flector máximo en una viga”, que depende de la carga de peso propio, de la intensidad de la sobrecarga, del área en que actúa la carga y tributa sobre la viga, del largo de la viga, etc, es decir, de un conjunto de variables aleatorias Si, tal que:

Supóngase que se desea evaluar la seguridad de un diseño. Para ello se considerará primero la formulación conocida como margen de seguridad, en que el margen Z se define como:

La confiabilidad, o medida de seguridad, puede cuantificarse en términos de la probabilidad:

mientras que la probabilidad de falla corresponde a:

Si la FDP de Z es conocida, la probabilidad de falla según la Ec. 1-1 es simplemente:

Suponiendo que R y S son variables aleatorias estadísticamente independientes y normalmente distribuidas, con medias μR y μS y desviaciones estándar σy σS respectivamente, es fácil demostrar que Z=R-S es también gaussiana con media:

y varianza:

Siendo Z normal, su FDP es:

En notación abreviada se refiere a esta distribución como N(μzz). La integración definida por la Ec. 1-13 para el cálculo de la probabilidad de falla puede realizarse directamente; sin embargo, es usual realizar un cambio de variable para utilizar las tablas disponibles para la FDA Φ (x) de la distribución normal estandarizada a media nula y desviación estándar unitaria, es decir, la distribución N(0,1);

Entonces, haciendo x = (z-μz,)/σz, y dz = σz dx la distribución de la Ec. 1-16 se estandariza a la N(0,1) dada por la Ec. 1-17. Por lo tanto, la integral de la Ec. 1-13 es:

que por la simetría de la distribución N(0,1) puede escribirse como:

Finalmente, en virtud de las Ecs. 1-14 y 1-15:

en que los valores de Φ se presentan en la Tabla P.1 del Anexo P. La Ec. 1-21 ilustra el importante hecho que la seguridad no sólo depende del margen entre Ry S, representado por sus valores medios, sino también de la dispersión o incertidumbre respecto del valor de tales variables. Este hecho se ilustra esquemáticamente en la Fig. 1.4, donde las líneas continuas representan funciones de distribución hipotéticas de R y S y las líneas de guiones distribuciones tales que los valores medios se han mantenido, pero las desviaciones estándar se han duplicado. El efecto es que ha aumentado el área traslapada entre ambas curvas, lo que refleja un aumento de la probabilidad de falla. Notar, sin embargo, que PF no corresponde al área traslapada, pero si tal área crece, PF también crece.

Figura 1.4
Distribuciones esquemáticas de la resistencia Ry la solicitacións

Alternativamente la confiabilidad puede evaluarse mediante una formulación basada en el cuociente R/S, la que se asocia al concepto de factor de seguridad. En este caso es común asumir que Ry S son variables aleatorias independientes, con distribución log-normal. Cabe recordar que si una variable aleatoria X es lognormal, inX es normal, por tanto la FDP de X es:

donde λ = E(InX) y ξ2= Var(InX) son los parámetros de la distribución y corresponden respectivamente a la media y a la varianza de In X. Estos parámetros se relacionan con la media μ= E(X) y la varianza σ2 = Var(X) a través de las relaciones (Ang y Tang, 1975):

Si el coeficiente de variación Ω = σ /μ es pequeño, ξ ≈ Ω

Refiriendo la seguridad en términos de la variable aleatoria Z tal que:

variable que tiene distribución normal pues Ry S se asumieron log-normales, el estado de falla se asocia a la condición (R-S) ≤ 0, es decir Z ≤ 0, y la probabilidad de falla queda igualmente expresada por las Ecs. 1-12 y 1-19.

De las Ecs. 1-25 y 1-23 se tiene que la media de Z es:

y su varianza:

Luego, la probabilidad de falla según la Ec. 1-19 es:

Si ΩR y Ωs son pequeños (≤ 0,3), la raíz del numerador en la ecuación anterior puede aproximarse a 1, y el denominador a (ΩR2 + ΩS2)1/2, de modo que:

Al cuociente μR/ μS se le denomina usualmente factor de seguridad central, mientras que Ω = (ΩR2 + ΩS2)1/2 corresponde a la incertidumbre total subyacente al diseño.

Para tener una idea del significado de los valores de las probabilidades de falla, puede considerarse que pF> 10-3 revela una situación de alto riesgo, posiblemente inaceptable, mientras que pF < 10-5 refleja una condición de bajo riesgo. Cabe notar también que para valores pequeños de la probabilidad de falla, ésta es muy sensible a la distribución considerada para la variable Z, lo que puede exigir utilizar la correcta FDP de Z para una determinación realista del riesgo. Sin embargo, aun cuando se use una distribución aproximada, las probabilidades de falla calculadas son aún útiles como medidas relativas de la seguridad. Valores grandes de PF, en cambio, no varían sustancialmente al cambiar la FDP de Z; sin embargo, en este caso se requiere una acción inmediata para reducir el riesgo. Para poner los valores de las probabilidades de falla en la perspectiva de otras situaciones de riesgo, la Tabla 1.2 muestra las tasas anuales de muerte en varias actividades.

Ejemplo 1.1

Sea una columna sometida a una carga axial de 40 toneladas correspondiente al peso propio de la estructura que soporta, con coeficiente de variación estimado en un 10 %, más una sobrecarga de 60 toneladas con coeficiente de variación estimado en un 25%. La columna se ha diseñado de manera que su resistencia última de compresión es el triple de la carga de servicio total. Asumiendo que el coeficiente de variación de la resistencia es de un 15 %, y que todas las variables son gaussianas y estadísticamente independientes, calcular la probabilidad de colapso de la columna utilizando la formulación conocida por margen de seguridad.

Solución: La carga total S = PP + SC es también gaussiana porque PP y SC lo son, por lo tanto:

La resistencia última nominal es μR = 300 toneladas con σR = (0,15)(300) = 45 toneladas como desviación estándar. La probabilidad de falla según la Ec. 1-21 es:

Ejemplo 1.2

Una viga de acero simplemente apoyada de 9 metros de luz (perfil IN 35x53) soporta una carga uniformemente distribuida de intensidad media = 2 ton/m y coeficiente de variación Ωq = 15 %. El material de la viga tiene una tensión de fluencia media y = 4000 kg/cm2 y COV Ωσy = 20 %. Suponiendo que q y σy tienen distribución log-normal, determinar:

a) La probabilidad de falla, definida la falla como el evento de alcanzar o exceder la resistencia límite de fluencia.

b) La tensión admisible de flexión o el factor de seguridad central requerido para limitar a 1/1000 la probabilidad de falla.

Solución: a) El valor medio del momento flector máximo es:

Como q es log-normal, M también lo es. La tensión máxima de flexión en una sección simétrica está dada por:

en que W es el módulo resistente de la sección, variable supuesta determinística. Por ser M log-normal, σ es log-normal. El perfil dado tiene W = 883 cm3, luego:

y:

Definiendo la función rendimiento conforme a la formulación “factor de seguridad”:

que tiene distribución normal (ver Ec. 1-25); la probabilidad buscada es:

Utilizando las Ecs. 1-27 y 1-28 se obtienen la media μz y la desviación standard σz:

Entonces, según la Ec. 1-29, y de la Tabla P.1 se obtiene:

b) Se desea pF = 0,001, o sea, usando ahora la Ec. 1-30 se obtiene:

El cuociente del primer miembro de la ecuación anterior corresponde al factor de seguridad central, luego en este caso:

y la tensión admisible correspondiente a este factor de seguridad es:

1.1.3 Criterios de Diseño para Seguridad

Dado el estado del arte actual, las normas de diseño están planteadas en términos determinísticos. Independientemente de que ciertos modelos probabilísticos han sido utilizados para definir la intensidad de las cargas, el enfoque es deterministico porque no se requiere hacer un análisis de confiabilidad estructural, es decir, evaluar la seguridad de un diseño (elemento o estructura completa) en términos de probabilidades. La situación actual resulta en diseños que no son consistentes con un nivel uniforme de seguridad, en el sentido que ciertos elementos pueden resultar diseñados en condiciones considerablemente más conservadoras, o inversamente más inseguras, que otros. Solamente un enfoque global probabilístico, tanto en los métodos de análisis con variables aleatorias, como en la consideración de las resistencias (incluyendo las incertidumbres implícitas en las propiedades de los materiales, diseño y construcción), puede conducir a un enfoque racional global. Este tipo de enfoque es por el momento parte del futuro.

En términos generales puede decirse que las normas enfocan el problema de seguridad según dos filosofías o criterios diferentes de diseño: el método de diseño elástico o de tensiones admisibles y el método de diseño a la rotura o de capacidad última.

a) Diseño Elástico o de Tensiones Admisibles

Este criterio establece que para las cargas de trabajo ningún punto de la estructura puede tener una tensión superior a un valor admisible” que garantice que la estructura se mantenga en el rango elástico.

Para el diseño, se considera separadamente cada elemento estructural, y en él las secciones más críticas, es decir, aquéllas sometidas a los esfuerzos internos mayores. Sea una sección sometida al esfuerzo S*, el que se ha obtenido combinando las diversas cargas que actúan sobre la estructura, que puede interpretarse de magnitud del orden del valor medio de la carga máxima durante la vida útil de la estructura (Fig. 1.5), y sea R* la resistencia del material correspondiente al esfuerzo considerado; el criterio de diseño establece que debe cumplirse:

en que FS es el factor de seguridad convencional, y R* debe interpretarse como un valor característico de la resistencia, es decir, uno de alta probabilidad de ser satisfecho (Fig. 1.5). Típicamente, el criterio de diseño de tensiones admisibles no se aplica en términos de “esfuerzos internos” sino a nivel de "tensiones internas” en una sección. Por ejemplo, si se considera una viga de hormigón armado construida con hormigón de resistencia fc’ y acero de refuerzo con tensión de fluencia σy, debido al esfuerzo de flexión S* en una sección de la viga hay una tensión de compresión máxima en el hormigón σcmax y una tensión de tracción en el acero σs, la condición de diseño definida por la Ec. 1-31 se expresa en términos de tensiones como:

en que los factores de seguridad de 3 y 1,8 respectivamente son valores típicos en normas de diseño de hormigón armado que usan el criterio de tensiones admisibles (NCh429.Of57). Como puede apreciarse en las dos últimas ecuaciones, las tensiones máximas de los materiales σcmax y σs se encontrarán en el rango de comportamiento elástico de ambos, de allí el nombre de criterio de diseño elástico.

Típicamente en diseño elástico la combinación de cargas antes referida corresponde simplemente a la suma de los distintos tipos de cargas Si, es decir:

Figura 1.5
Representación esquemática de las FDP de la solicitación Sy de la resistencia Ryde los valores determinísticos de estas variables según el criterio de diseño utilizado

Por ejemplo, si se tratara del momento flector en una viga para las cargas de peso propio y sobrecarga:

en que Mpp y MSC son los momentos flectores en la sección crítica debido a cargas de peso propio y sobrecargas de uso respectivamente. Naturalmente hay combinaciones de carga más complejas en las que intervienen cargas eventuales como viento, nieve o sismo; por cierto, dependiendo de cada caso, se usarán factores de seguridad distintos (Ec. 1-31) como se verá más adelante.

El criterio de diseño elástico puede llamarse “clásico", porque en base a él se han diseñado muchas estructuras en el pasado. Posiblemente seguirá siendo utilizado por algún tiempo, aunque la tendencia moderna es que los criterios de diseño último lo vayan desplazando. La principal ventaja del método clásico es quizás su simplicidad, por el hecho de utilizar directamente fórmulas de cálculo de tensiones de la mecánica de sólidos elemental. Su principal debilidad, sin embargo, radica en el hecho que las tensiones de trabajo en el rango elástico no son indicativas del estado límite de la sección misma o del elemento. En efecto, que un material alcance su capacidad límite en un punto no implica necesariamente la falla de la sección: por ejemplo, en una viga metálica en flexión pueden fluir las fibras extremas de la sección sin que ello implique que se ha alcanzado su capacidad máxima, o en una viga de hormigón armado el acero puede fluir sin que ello signifique la rotura de la sección. En consecuencia, el factor de seguridad utilizado en este criterio de diseño (Ecs. 1-32 y 1-33 por ejemplo) no es equivalente al cuociente entre la capacidad última de la sección y la carga de trabajo.

b) Diseño a la Rotura o de Capacidad Ultima

Lo esencial en este criterio es fijarse en la capacidad última de la sección como un todo y no en las tensiones en los materiales individuales como en el criterio de diseño elástico. Para ello, las cargas deben llevarse a una condición extrema o última, es decir, a un nivel de carga de baja probabilidad de ser excedida durante la vida útil de la estructura. Se utilizan entonces factores de mayoración αi > 1 que se aplican sobre los tipos de carga Si que actúan sobre la estructura, de modo que el esfuerzo último S** se calcula como:

Por ejemplo, el código ACI usa los factores de mayoración 1,4 y 1,7 para las cargas de peso propio y sobrecarga respectivamente, de modo que el momento flector último en una sección, para la combinación de estas cargas se calcula como:

en que Mpp y Msc son los momentos flectores antes definidos.

Notar que en el criterio de diseño elástico o de tensiones admisibles no se usan factores de mayoración, es decir αi ≡ 1, lo que marca la diferencia entre S* y S** dados por las Ecs. 1-34 y 1-35 (Fig. 1.5).

El uso de factores de mayoración diferentes según el tipo de carga tiene un fundamento probabilístico. En efecto, estos factores, que son parte del factor de seguridad, deben estar asociados al grado de incertidumbre en la variable considerada, por ello el factor de mayoración de las sobrecargas de uso es mayor que aquél de las cargas de peso propio, porque la incertidumbre implícita en las sobrecargas es mayor.

La resistencia última de la sección R** se estima en base a la resistencia última nominal Rn afectada por un factor de minoración ϕ < 1, de modo que:

La resistencia última nominal Rn corresponde a aquella calculada mediante un modelo mecánico del comportamiento del elemento, utilizando valores nominales de la resistencia del material (nominal se refiere a la resistencia determinística especificada como calidad del material, por ejemplo, las calidades nominales específicas fc’ o σy). Se espera, por tanto, que la capacidad última real exceda Rn con alta probabilidad, de modo que o es un factor de seguridad adicional que se asocia a la incertidumbre del modelo mecánico en que se basa la determinación de Rn; por ejemplo, en el caso de elementos de hormigón armado en flexión se usa ϕ = 0,9 porque el modelo de resistencia flexural es muy confiable, como se ha comprobado experimentalmente, mientras que por la mayor dispersión de resultados en el caso de elementos en compresión se usa ϕ = 0,7. Por otra parte, Rn no necesariamente coincide con R* (Ec. 1-31), ya que la capacidad última de la sección no se alcanza exactamente cuando el material alcanza su resistencia característica nominal en algún punto (Fig. 1.5).

El criterio de diseño por capacidad última se expresa simbólicamente como la condición:

En conclusión, en el criterio de diseño último el factor de seguridad se incorpora a través de los factores de mayoración αi y del factor de minoración ϕ, permitiendo discriminar entre variables y modelos con diferente nivel de incertidumbre.

Cabe destacar que cuando se habla de diseño último se refiere al diseño a nivel de la sección de un elemento. No debe confundirse con el método de análisis plástico, que permite justamente evaluar cuál es el mecanismo y carga de falla o colapso (parcial o total) de una estructura; este método permite determinar el factor de seguridad global entendido como el cuociente entre la carga de colapso y la carga de trabajo (Sección 3.3.3). A su vez, debe tenerse presente que cuando se alcanza la capacidad última de una sección no significa que falle o colapse el elemento en cuestión; por ejemplo, en una viga de acero se puede alcanzar su capacidad máxima en flexión, o momento plástico, en una sección, y la viga puede seguir recibiendo más carga por su capacidad para redistribuir esfuerzos. En conclusión, deben reconocerse diferentes niveles o tipos de "estados límite” en el comportamiento de una estructura como los que aquí se han referido: alcanzar la tensión máxima o característica de un material en una sección de un elemento, alcanzar la capacidad última de una sección de un elemento, alcanzar la carga de colapso de un elemento, alcanzar la carga de colapso de la estructura completa.

Por otra parte, cabe también señalar que es usual hoy en día diseñar al límite las secciones de los elementos de una estructura, pero la obtención de los esfuerzos internos se realiza por medio de un análisis elástico de la estructura, es decir, ignorando el efecto benéfico de la redistribución de esfuerzos internos que tiene lugar debido al comportamiento inelástico. Ciertamente es una inconsistencia, sin embargo, se acepta porque los métodos de análisis en el rango de comportamiento inelástico no se encuentran aún suficientemente desarrollados para su uso rutinario.

1.1.4 Normas de Cálculo y Diseño de Estructuras

En el ejercicio profesional es usual seguir las normas. Las normas establecen los requisitos mínimos que deben cumplir las estructuras y provienen de las fuentes siguientes:

Estudios teóricos: Conjunto de disposiciones o resultados obtenidos sobre la base de una teoría (modelo matemático) del fenómeno físico en cuestión, y que han sido verificados con resultados experimentales. Es importante conocer las hipótesis en que se basan estos estudios teóricos, para poder extrapolarlos a otras condiciones con un grado de seguridad aceptable.

Evidencias experimentales: Resultados empíricos para estudiar fenómenos muy complicados para ser modelados y analizados teóricamente. Estos estudios conducen a fórmulas que deben usarse con cautela pues no deben extrapolarse a situaciones que sobrepasan el marco de validez de los resultados experimentales.

En este texto se presentarán varios casos de fórmulas empíricas, como por ejemplo aquellas utilizadas para evaluar la resistencia al esfuerzo de corte del hormigón en función de su resistencia a la compresión. Similarmente ocurre con otras propiedades del hormigón como su módulo de elasticidad, el que puede correlacionarse con su peso específico y resistencia a la compresión mediante la formula empírica:

en que w es el peso específico del hormigón, que debe utilizarse en unidades de kg/m3 y fc’ es la resistencia a la compresión, que debe usarse en kg/cm2, resultando Ec en kg/cm2. Esta condición para las unidades es típica de relaciones empíricas, ya que, como puede apreciarse en la Ec. 1-38, las unidades no son consistentes entre el primer y el segundo miembro. En efecto, si se cambian las unidades, la constante 0,1365 cambia; si se usan unidades inglesas (código ACI 318-95) la fórmula se expresa como:

con w en lb/pie3 y fc’ en lb/pulg2. Como ejercicio se propone comprobar que las Ecs. 1-38 y 1-39 son equivalentes.

Estas fórmulas, como otras basadas en evidencia empírica se derivan por medio de análisis de regresión (no-lineal en el caso de las Ecs. 1-38 y 1-39) de los resultados experimentales. Claramente los coeficientes de los parámetros w y fc’ en las ecuaciones anteriores no provienen de la aplicación de un principio físico.

Práctica profesional: Gran parte del conocimiento en ingeniería se debe a lo que se ha hecho en el pasado con buenos resultados. Esto representa el “arte” de la profesión comparada con la ciencia incorporada por los estudios teóricos y las evidencias experimentales. En este sentido, la experiencia a nivel local es particularmente valiosa, ya que conjuga parámetros autóctonos como las características de los materiales, la calidad de la mano de obra, y el grado de inspección de la construcción, entre otros, los que deben tenerse presente al utilizar o adaptar normas extranjeras basadas en otras realidades.

Los códigos son una ayuda para el ingeniero. Sus disposiciones no se pueden seguir ciegamente, sino que es preciso entender el porqué de ellas para poder aplicarlas correctamente, ya que usualmente se han derivado para las situaciones más comunes que no son extrapolables a cualquier caso. A su vez, como se ha mencionado, los códigos se refieren a los requisitos mínimos que deben cumplirse, quedando el ingeniero estructural llamado a utilizar su criterio para discernir cuando dichas disposiciones pudiesen ser insuficientes. Este curso tratará de entregar algunos de estos “porqué”, es decir, los conceptos fundamentales, los cuales deberán ser complementados posteriormente en los cursos de diseño específico.

Los códigos se renuevan a medida que el conocimiento avanza. Sin embargo, es necesario señalar que existen muchas áreas de la ingeniería estructural donde no existen códigos, y el ingeniero debe apelar sólo a sus conocimientos de teoría básica para resolver los problemas que se presenten. Por ello, el ingeniero estructural hace uso frecuente de la literatura técnica especializada, donde se presentan soluciones más sofisticadas de problemas resueltos hoy en forma aproximada.

Ya se ha mencionado antes la norma de diseño de elementos estructurales para edificios de hormigón armado. Similarmente existen normas para otros materiales: la norma AISC para el diseño de elementos de acero, la norma AASHTO para el diseño de puentes, las normas chilenas de diseño de albañilerías, NCh1928.Of93 para albañilería armada y NCh2123.Of97 para albañilería confinada, la norma chilena NCh1198.Of91 de cálculo de construcciones de madera, la norma chilena NCh433.Of96 para el diseño sísmico de edificios, y otras que se mencionarán oportunamente.

1.1.5 Normas de Cargas

Además de las normas de diseño para distintos materiales existen normas de cargas para solicitaciones típicas a utilizarse en el diseño de estructuras en general. Se mencionan en esta sección tres normas chilenas: la NCh1537.Of86 que especifica las cargas permanentes y sobrecargas de uso para el diseño de edificios, la NCh431.Of77 que especifica las sobrecargas de nieve, y la NCh432.0f71 que especifica las acciones del viento sobre las construcciones. Por cierto estas normas pueden complementarse con normas extranjeras para cubrir aspectos no considerados en ellas, aunque teniendo la precaución de utilizarlas con criterio para adaptarlas a las condiciones naturales nacionales.

De particular relevancia por nuestra condición de país sísmico es la norma de diseño NCh433.Of96 antes mencionada, la que incluye las solicitaciones a utilizarse para el diseño sísmico de edificios, que se basan en las características propias del fenómeno tectónico que da origen a los terremotos en Chile y a la información de sismicidad histórica en el país en términos de la frecuencia de ocurrencia de los eventos, su magnitud y su distribución espacial.

El tema del diseño sísmico escapa al objetivo de este curso introductorio por lo que prácticamente no haremos mayores referencias a él, salvo para destacar, en algunos casos, propiedades de los materiales que son beneficiosas desde el punto de vista del comportamiento de las estructuras frente a un terremoto. Sólo para dar un indicio de la problemática de diseño sísmico, señalemos que la situación real a que se ve afectada una estructura durante un terremoto puede evaluarse analíticamente considerando su respuesta frente al movimiento de su base representado por la aceleración del suelo, que es una función del tiempo, como se ve en la Fig. 1.6.a. Para el diseño de estructuras se usan cargas horizontales laterales ficticias que pretenden representar el efecto del movimiento real; la norma NCh433.Of96 especifica tales cargas como una distribución estática equivalente como la indicada en la Fig. 1.6.b o una combinación de tales distribuciones que dependen de las propiedades dinámicas de la estructura misma.

a) Norma NCh1537.0f86: Cargas permanentes y sobrecargas de uso para el diseño estructural de edificios

Esta norma establece las bases para determinar las cargas permanentes y los valores mínimos de las sobrecargas de uso normales que deben considerarse en el diseño de edificios. Las cargas permanentes son aquellas cuya variación en el tiempo es despreciable, por ejemplo, el peso de los elementos estructurales mismos, instalaciones, terminaciones, estucos y pavimentos, rellenos, empujes de tierra y líquidos, etc. Exceptuando los empujes mencionados, las cargas permanentes suelen también denominarse cargas muertas e incluirse en el llamado peso propio. La norma proporciona una serie de datos sobre pesos específicos de materiales varios almacenables, materiales de construcción, metales, líquidos, maderas, etc.

Figura 1.6
Solicitaciones sísmicas en edificios

Una lista de sobrecargas para pisos de edificios conforme a la NCh1537.Of86 se presenta en la Tabla V.1 (Anexo V). Algunos ejemplos se presentaron antes también en la Tabla 1.1 de la Sección 1.1.2. Como se señaló en esa sección, tales cargas se aproximan al valor medio de la sobrecarga máxima en 50 años. Esto último no es contradictorio con el carácter de “valor característico" de las sobrecargas de uso especificadas en ellas. En efecto, la norma indica que al valor característico corresponde al percentil 95 de la distribución de medidas de sobrecargas, es decir, un valor excedido por sólo un 5 % de la población de medidas. Estas mediciones corresponden a lo que se denomina sobrecarga en un instante arbitrario obtenidas en mediciones directas de la carga presente en edificios, especialmente de oficinas en un instante (Ellingwood y Culver, 1977). Estas mediciones incluyen los efectos del mobiliario y cargas normales de personas, pero no reflejan eventos de carga extraordinarios como aglomeración de personas, acumulación de mobiliario durante una remodelación, o cambios en el uso de la estructura, entre otros efectos.

La norma de cargas incorpora dos conceptos que conviene presentar de inmediato: el de área tributaria, y el de coeficiente de reducción de las sobrecargas de uso. Ambos se utilizan para determinar las cargas que actúan en los elementos de una estructura, como por ejemplo en las vigas, muros y columnas del entrepiso de un edificio de hormigón armado como el ilustrado en la Fig. 1.7.

Figura 1.7
Entrepiso de edificio de hormigón armado

Se entiende por área tributaria, el área de planta total, que multiplicada por la carga uniformemente distribuida correspondiente, define la carga que se considera actuando sobre un elemento. Las áreas tributarias se determinan en base a supuestos o reglas muy simplificatorias, de modo que las cargas calculadas y sus distribuciones no son necesariamente las reales. Por ello, tales reglas deben utilizarse juiciosamente, limitando su aplicación a aquellos casos en que no se esperan diferencias substanciales con un procedimiento más riguroso.

La Fig. 1.8.a muestra el área tributaria sobre la viga AB en un esquema en planta de la estructura de la Fig. 1.7; el área tributaria se ha determinado sobre la base de ángulos de 45o y líneas a distancia ly/2 del eje de la viga. Estos supuestos resultan en una buena aproximación de la realidad si las condiciones de borde de la losa son iguales en todos ellos, y si las vigas tienen rigideces y condiciones de continuidad similares en ambos sentidos. Sin querer entrar en mayor detalle en este tema de análisis, cabe señalar, por ejemplo, que si las vigas CD y EF fueran vigas de borde de la planta, la losa estaría en condición de “simple apoyo” sobre ellas, mientras que su continuidad sobre la viga AB sería equivalente a una condición de “empotramiento” en ese borde, resultando ello en una carga mayor sobre la viga AB que la estimada en base al área tributaria antes señalada. Por cierto, las cargas correctas sobre las vigas pueden obtenerse de un análisis apropiado de las losas.

Por otra parte, conforme al área tributaria que muestra la Fig. 1.8.a, la carga sobre la viga no es uniformemente distribuida, sin embargo, en la práctica puede utilizarse tal aproximación cuidando de amplificar los momentos flectores en un 20 % (Ejemplo 1.3). Así, si el área tributaria es Atr, qv el peso propio de la viga por unidad de longitud, qpp el peso propio por unidad de superficie de la losa más las terminaciones de piso, cielo y particiones (carga permanente total), y qsc la sobrecarga de uso por unidad de superficie del piso, puede suponerse para el diseño de la viga que sobre ella actúa una carga uniforme:

Figura 1.8
Ejemplos de cálculo de áreas tributarias: (a) Sobre viga AB, (b) Sobre columna A, (C) Sobre viga CE si no hubiera columna en A

en que el factor 1,2 debe omitirse para el cálculo del esfuerzo de corte. Por otra parte, en el caso de diseño último hay que separar las cargas de peso propio y sobrecarga, ya que quedarán afectas a factores de mayoración distintos.

La Fig. 1.8.b muestra el área tributaria lxly del piso considerado sobre la columna A. Para n pisos iguales sobre el piso considerado, el área tributaria sobre la columna es:

suponiendo, para simplificar, que para el techo del edificio rigen cargas iguales que para los pisos. Sin embargo, dada la baja probabilidad que la sobrecarga de uso total esté presente simultáneamente en toda esta área tributaria, la norma NCh1537.Of86 permite usar un factor de reducción Ca, de modo que la carga axial de diseño sobre la columna del entrepiso en cuestión es:

en que Q es el peso propio de la columna, que es el peso correspondiente de las vigas y los demás términos se han definido antes. El factor de reducción Ca se aplica sólo si Atr > 15 m2 y se evalúa con la expresión:

Sin embargo, Ca no debe ser inferior a 0,6 para elementos horizontales y para elementos verticales que reciben carga de un piso solamente, ni inferior a 0,4 para otros elementos verticales, y en ningún caso inferior al valor determinado por:

b) Norma NCh431.0f77: Sobrecarga de nieve

La nieve, en la mayor parte del país, es una acción de tipo eventual, es decir, ocurre sólo algunas veces durante la vida útil de la obra que se está diseñando. Por el contrario, la norma establece que en zonas cordilleranas y en el extremo sur del territorio, donde nieva todos o casi todos los años, la carga de nieve debe considerarse de ocurrencia normal en vez de eventual.

La carga de nieve depende esencialmente de la inclinación del techo. Si esta inclinación es igual o menor que 30° respecto de la horizontal, la carga básica de nieve se determina de una tabla que depende de la altura del lugar y de su latitud geográfica. Los valores varían entre 0 (por ejemplo, altura menor que 2000 m y latitud geográfica menor que 26°) y 700 kg/m2 (altura sobre 3000 m y latitud geográfica mayor que 32°). Si la inclinación del techo es mayor que 30° se aplica un factor de reducción sobre la carga básica de nieve. La norma también establece que si la presión básica determinada para el lugar es mayor que 25 kg/m2, la carga de nieve debe considerarse de ocurrencia normal.

c) Norma NCh432.Of71: Cálculo de la acción del viento sobre las construcciones