1. 6;;T7tp5&
PROCESADO SÍSMICO EN LA EXPLORACIÓN PETROLERA
Por
Gorgonio García Molina
CNPS, Centro Nacional de Procesado Sismológico, Subdirección de la Coordinación
Técnica de Exploración PEMEX, Torre Empresarial 70 Piso, Paseo Tabasco 1203, Col.
Lindavista. Villahermosa Tabasco 86050
ggarciapep.pemex.com
Introducción
Dentro de la industria petrolera y particularmente en la exploración, el dato
fundamental para encontrar acumulaciones de hidrocarburos es la información
sísmica. La base del método es generar una excitación en la superficie, la cual
puede ser la detonación de una carga de dinamita, una placa vibradora o
cañones de aire en el caso marino, que actúan como una fuente que irradia
energía en todas direcciones, una parte de ésta viaja hacia el interior de la tierra
siguiendo las leyes propias de la propagación de ondas, cuando encuentra un
contraste en las propiedades elásticas del medio, se suceden los fenómenos de
la reflexión y la refracción, una parte de la energía se refleja de acuerdo a su
coeficiente de reflexión y la otra se transmite hacia abajo, repitiéndose éste ciclo
al encontrar cambios en las impedancias. La energía que se refleja llega a la
superficie donde es registrada por geófonos, transductores que transforman la
energía de movimiento en energía eléctrica, la cual se registra en sismógrafos
que son equipos de grabación digital.
Una vez que la información sísmica se ha registrado en campo, viene la
siguiente etapa que es hacer que esa información adquiera un carácter
geológico para que pueda ser interpretada; esta parte corresponde al procesado
de datos sísmicos, cuyo objetivo es proporcionar a los intérpretes geólogos y
2. geofísicos, la mejor imagen del subsuelo para que puedan llevar a cabo la
interpretación geológica de las secciones sísmicas.
Para llevar la información sísmica grabada en el campo a información sísmica
interpretable, el procesado sísmico asume modelos geofísicos del subsuelo, los
cuales tratan de representar la propagación de las ondas sísmicas en el medio
geológico. La evolución de la secuencia de procesado sísmico va
intrínsicamente acompañada con el desarrollo de los modelos geofísicos del
subsuelo.
Cabe destacar que la evolución de la secuencia de procesado también va ligada
con el desarrollo del poder de cómputo, capacidad de almacenamiento y en
general con la industria de la computación. Los conceptos y la teoría básica de
muchos procesos importantes utilizados hoy en día (como la migración
preapilamiento en profundidad) se desarrollaron mucho antes de que se
pudieran aplicar económicamente.
La calidad del volumen sísmico procesado final a interpretar -entendiéndose por
calidad como la veracidad de la imagen sísmica en relación al objetivo
geológico; la definición y continuidad de los reflectores y el nivel de relación
señal/ruido- fundamentalmente depende de:
La secuencia de procesamiento utilizada, adecuada a los objetivos
geológicos del procesamiento.
• El software de procesamiento, con su calidad y diversidad de
algoritmos y facilidad de uso interactivo.
• La experiencia del procesador, incluyendo su actitud pro-activa para
analizar, detectar y resolver problemas con los datos.
• La efectiva interacción entre el analista, el geofísico e intérprete
durante las diferentes etapas de procesamiento, en particular durante
la selección de velocidades.
3. En las siguientes secciones se describen las secuencias de proceso utilizadas
en la exploración petrolera, hasta llegar a la que se usa actualmente en Pemex.
La descripción se divide en base a los siguientes aspectos evolutivos
importantes de la secuencia de procesamiento.
Procesamiento básico 2D y 3D (stack y migraciones postapilado).
DM0 (migración preapilamiento parcial).
Migraciones preapilamiento 3D (tiempo y en profundidad).
Secuencia Básica de Procesado Sísmico - Modelo 2D
Hasta la década de los 70's se hacía la suposición de que todos los eventos
estaban contenidos en el plano de la sección sísmica, la figura 1 representa el
modelo geofísico supuesto: fuentes y detectores colocados en una línea,
propagación de ondas en el plano vertical, reflectores planos. Las reflexiones
son grabadas en superficie por detectores para generar registros sísmicos del
subsuelo (figura 2).
Tres de los conceptos geofísicos básicos más importantes que aparecen en el
procesamiento son:
El modelo convolucional de la traza sísmica.
El modelo de "exploding reflector" del apilado.
El concepto de velocidad RMS.
El modelo convolucional de la traza.- Bajo este modelo, se asume que la ondícula
grabada en superficie es el resultado de la convolución (o sea la interacción
entre dos funciones, con una de salida considerada "promedio" o "filtrada") entre
la ondícula de la fuente con la función de reflectividad del subsuelo, mas una
componente de ruido. Esto se expresa como:
S(t) = W(t) * R(t) + N(t)
4. Donde los términos están dados por:
S(t) = traza sísmica
R(t) = función de reflectividad = Ii Z'
W(t)= Ondícula de la fuente (en realidad este término es mas complejo,
ya que incluye otros efectos tales como acoplamiento del detector,
instrumentos, etc.)
li = impedancia acústica= (p1V1 - p+1V1 +i) / ( pV + p+1V +)
N(t) = ruido dentro de la señal registrada.
* = denota convolución.
= 1,2,.. indica el número de reflector (en orden de profundidad).
En la expresión anterior se observa, que uno de los objetivos fundamentales del
procesamiento es recuperar la respuesta de la tierra R(t) y minimizar o atenuar
el ruido N(t).
El modelo del "aploding reflector". - Bajo este esquema, el apilado se considera
como el resultado de un experimento geofísico idealizado en el cual solo existen
detectores en superficie, las fuentes están localizadas encima de todos y cada
uno de los reflectores (capas geológicas), espaciadas en forma infinitesimal. A
tiempo cero, todas las fuentes explotan emitiendo ondas elementales, las cuales
superpuestas forman el frente de onda del reflector (figura 3). Los detectores
graban estas reflexiones siendo el resultado la sección apilada o mejor conocida
como "stack". Otro objetivo fundamental del procesamiento es llevar la
información grabada en superficie (figuras 1 y 2) al apilado, el cual corresponde
a un experimento que realmente nunca se realiza en el campo.
El concepto de velocidad RMS.- En su forma más básica, el subsuelo se considera
formado por una serie de capas horizontales planas, cada una con velocidad de
intervalo bien definida; sin embargo en la secuencia básica de procesamiento,
se asume que este modelo puede ser reemplazado por un modelo aun mas
simple, que consta de una sola capa y cuya velocidad es el valor RMS (root
mean square) de las diferentes capas. Esto busca que la curva de reflexión real
proveniente del modelo del subsuelo con diferentes velocidades de intervalo, se
5. pueda aproximar por una curva que dependa de una sola velocidad VRMS, ver
figura 4. Uno de los pasos más importantes y más retadores del procesamiento
es precisamente la determinación de velocidades, incluyendo la RMS.
Los procesos principales que se realizan para llevar la información grabada al
apilado son: edición de trazas, aplicación de geometría, compensación por
divergencia esférica, estáticas de elevación, deconvolución traza-a-traza,
determinación de velocidades para NMO (normal move-out) y apilado.
La deconvolución trata de extraer o remover el efecto de la ondícula de la fuente,
para obtener solo la señal del reflector (serie de reflectividad), acorde al modelo
convolucional arriba mencionado.
Para el cálculo de velocidades, se generan valores de semblanza a lo largo de
curvas hiperbólicas que dependen de la velocidad de propagación, de acuerdo al
modelo simplificado del subsuelo (figura 4). Como no conocemos la velocidad de
propagación (o mejor dicho la que se ajuste mejor al modelo geofísico), se
generan valores de semblanza que cubran un rango amplio de velocidades (por
ejemplo, de 1500 m/s a 5000 m/s cada 75 m/s). El analista selecciona las
velocidades en. base a los valores más altos de semblanza que mejor
representan el ajuste de la curva hiperbólica a la curva de reflexión grabada
Un paso importante para el cálculo de velocidades es el reordenamiento de los
datos del dominio del punto de tiro al dominio del punto medio común CMP. La
idea es agrupar en un solo registro sísmico, las trazas sísmicas que compartan
el mismo punto medio común entre la fuente y el detector. Considerando el
modelo simplista del subsuelo (figura 1), el CMP en superficie coincide con los
puntos de reflexión común en el subsuelo. Ver figuras 5 y 6.
El proceso de NMO sigue al de selección de velocidades. Con el NMO, para
cada reflector y para un registro de punto medio común, la curva de reflexión se
"aplana" (figura 6). El proceso es simple, se aplica un desplazamiento en tiempo
6. a cada traza con offset "h", tomando como referencia el tiempo de la reflexión
en la traza con offset cero:
tNMO = th - tO
Donde th es el evento registrado con offset h y to es el evento registrado con
offset cero (to corresponde al vértice de la curva hipérbola). Lo que se pretende
con esta corrección es obtener la reflexión en offset cero que se hubiese
obtenido si se registra con offset h. Una vez hecha la corrección se procede al
apilado, el cual es simplemente una suma horizontal de trazas, correspondientes
al mismo punto medio común, ver figura 6.
El concepto del apilado, simple como puede parecer, ha sido de los conceptos
más poderosos en la adquisición sísmica y en la secuencia de procesamiento. El
apilado mejora notablemente la calidad de la imagen sísmica gracias a la suma
de datos redundantes y al consecuente incremento de la relación señal/ruido.
Con el apilado tenemos finalmente el experimento idealizado del "exploding
reflector model", el cual ha perdurado y ha sido muy útil durante la evolución de
la secuencia de procesamiento, ver figura 7.
Los procesos sísmicos de esta fase (modelo 2D) de la secuencia de
procesamiento, requerían maniobrar una pequeña cantidad de datos, con
limitada lectura/escritura y baja necesidad de poder de cómputo. Los procesos
eran "mono-canal" (o sea traza-a-traza). La deconvolución y el cálculo de
velocidades eran tal vez los procesos más demandantes de poder de cómputo.
Secuencia Básica de Procesado Sísmico - Modelo 3D
Es en la primera parte de los 80's que aparece el levantamiento sísmico 3D en
forma masiva, lo que origina que se introduzcan cambios en la secuencia básica
de proceso. La atenuación de ruido y la logística en el manejo de mayores
7. cantidades de datos reciben bastante atención. Otro avance importante son los
procesos consistentes con superficie, los cuales hacen énfasis en corregir
efectos superficiales que dependen solo de la posición de la fuente y detector y
no de la dirección o profundidad de donde provienen las reflexiones (figura 8).
Entre estos procesos, tenemos la deconvolución consistente con superficie,
estáticas residuales y estáticas de refracción.
La eliminación de ruidos, fundamental para aumentar la relación señal/ruido y
hacer mas fácilmente interpretable la sección sísmica, recibe un auge importante
con la aparición de nuevos algoritmos de tipo multi-canal (los cuales actúan
simultáneamente en un conjunto de trazas) que atacan patrones de ruido
definidos en algún dominio tales como el del tiro, el del receptor o el del offset.
Por ejemplo, un proceso común es el transformar los datos registrados en
espacio-tiempo a frecuencia-número de onda, filtrarlos y retransformarlos al
dominio original. Con ello se busca aumentar la coherencia lateral de los
reflectores, atenuando ruido aleatorio y patrones de ondícula que presentan una
dirección preestablecida.
Un proceso importante que se establece en forma rutinaria es la migración
postapilado, tanto en 2D como en 3D. Originalmente se consideraba a la sección
apilada como una buena representación del subsuelo, dado el concepto del
CMP y del "exploding reflector" de capas planas horizontales (ver figura 7); en
este esquema, la reflexión en una traza apilada se considera como una fiel
representación de la reflexión de un punto del reflector en el subsuelo; sin
embargo, un modelo simple de capas planas inclinadas hace que el apilado no
siga siendo una fiel representación del subsuelo (figura 9), de aquí surge la
necesidad de la migración (postapilado). Con ella las reflexiones del apilado se
mueven ("migran") tanto en tiempo como en posición horizontal, pretendiendo
que las mismas representen la verdadera posición horizontal y vertical del
reflector.
Cuando la migración entra en la secuencia de procesamiento, se produce el
desarrollo de una gama muy diversa de algoritmos de migración. Los dos tipos
8. de algoritmos que se establecen firmemente son el de Kirchhoff (basado en
trazado de rayos y superposición de difracciones), así como el de ecuación de
onda por diferencias finitas, que se basa en la solución aproximada y
simplificada de la ecuación de onda.
El proceso de migración, se deriva de las ecuaciones que rigen la propagación
de ondas, por lo tanto depende de la correcta velocidad que gobierna la
propagación en el subsuelo; comúnmente las velocidades de migración se
calculan a partir de las de apilamiento, suavizadas y modificadas con valores
porcentuales variables con el tiempo. Sin embargo, a medida que van
apareciendo algoritmos más optimizados de migración, se van desarrollando
métodos específicos y novedosos para probar, analizar y derivar velocidades de
migración.
Los procesos sísmicos en esta fase de la secuencia de procesamiento,
requieren del almacenamiento de mayores cantidades de datos y de un aumento
considerable en la lectura/escritura. La demanda de poder de cómputo también
aumenta considerablemente, tanto por el mayor volumen de datos, así como por
el uso de nuevos algoritmos tales como filtros multi-canal de atenuación de
ruido, estáticas residuales basadas en croscorrelaciones entre trazas y por
supuesto migraciones 3D postapilamiento por ecuación de onda y Kirchhofff.
Secuencia de Procesado con Migración Pre-apilamiento Parcial - DM0
En la segunda parte de la década de los 80's, se sigue buscando mejorar la
imagen sísmica del subsuelo. Esto lleva a un avance muy importante tanto
conceptual como práctico: conceptual, porque se fundamenta la idea de que
para lograr mejores imágenes del subsuelo es necesario aplicar migración antes
de apilar a los datos; práctico, porque se desarrolla un proceso eficiente para
lograr esto, con "una migración parcial" antes de apilar que rápidamente se
populariza y se conoce como el DM0 (dip-Moveout).
Recordemos que la migración postapilado corrige la posición espacial de las
reflexiones del apilado (figura 9). Sin embargo, un análisis más cuidadoso del
9. proceso de reflexión expone dos problemas fundamentales que afectan la
calidad del apilado y por lo tanto de la migración postapilado; el primero es el
"smearing" del punto de reflexión, el segundo es el conflicto en la selección de
velocidades.
La figura 10 muestra un CMP con dos capas planas, una inclinada y otra
horizontal, para la capa plana todas las trayectorias de los rayos entre fuente y
receptor coinciden en el mismo punto de reflexión, justo por debajo del CMP en
superficie, sin embargo para la capa inclinada este no es el caso. Conforme
aumenta la distancia fuente-detector los puntos de reflexión se mueven hacia
arriba a lo largo de la capa inclinada. Este efecto se denomina "smearing" del
punto de reflexión y el DM0 precisamente lo corrige, posicionando ("migrando")
las trazas antes de apilar a una posición donde verdaderamente todos los rayos
coinciden en un solo punto de reflexión. Después de la aplicación del DM0, el
apilado producirá una suma de señal óptima.
Otro efecto importante que resuelve el DM0, es el conflicto de las velocidades
de apilamiento entre las reflexiones provenientes de capas horizontales versus
las provenientes de capas inclinadas. La figura 10 ilustra este problema. La
curva de reflexión de la capa inclinada coincide en su vértice (cero offset) con la
curva de reflexión de la capa horizontal. Sin embargo, ambas curvas
progresivamente difieren en tiempo conforme el offset aumenta. La curva de la
capa inclinada es más "plana" que la de la capa horizontal. En términos de
velocidades (ambas curvas de reflexión son hipérbolas) nos encontramos con
que -sin DM0- la velocidad óptima para apilar la curva de reflexión de la capa
inclinada es mayor que la de la capa horizontal. El DM0 corrige esta
discrepancia haciendo que ambas curvas puedan ser apiladas con una sola
velocidad y aún manteniendo su procedencia original (capa horizontal y capa
inclinada). La forma en que el DM0 corrige los efectos arriba mencionados se
ilustra en la figura 11.
Con el DM0, la fase evolutiva de la secuencia de procesamiento inicia el
desarrollo de métodos pre-apilado para determinar velocidades que favorecen la
10. imagen. Los datos pre-apilado son "semi-migrados" y transformados a otro
conjunto de datos pre-apilado. Con los datos después del DM0 se seleccionan
nuevas velocidades de apilamiento. Por resolver conflictos de reflexiones entre'
capas horizontales y con echado, la selección de velocidades después del DM0
es más clara, lo que conlieva a obtener mejores velocidades que benefician
tanto el apilamiento postDM0 como a la migración postapilado.
Una vez que se incluye en forma masiva el DM0, la secuencia de
procesamiento se mantendrá prácticamente igual hasta la incorporación de la
migración preapilamiento en tiempo. En el camino, hay cambios y adiciones a la
secuencia de proceso, tales como el uso de nuevas metodologías para atenuar
ruidos a nivel preapilado, algoritmos más confiables para preservar amplitudes y
migraciones postapilamiento especializadas, como la de rayos curvos ("turning
ray migration") para mejorar la imagen de los flancos de cuerpos de sal.
Con la aparición del DM0 se tiene un incremento notable en la demanda de
poder de cómputo, se menciona que hasta de un orden de magnitud. También
continua la demanda de hardware con mayor eficiencia en la lectura/escritura,
debido al constante incremento en la manipulación, procesamiento y sorteo de
datos a nivel preapilado, así como con el creciente volumen, de datos 3D
adquiridos. Se hace notar que los algoritmos de DM0 se optimizan
tremendamente, no solo para el uso efectivo del procesador de cómputo, sino
para minimizar la lectura/escritura de los datos preapilado.
Secuencia de Procesado con Migración Preapilamiento en Tiempo - PSTM
Hacia finales de la década de los 80's la secuencia de procesado incorpora en
mayor medida, pero aún no masivamente, el proceso de migración en tiempo
antes de apilar (PSTM), siendo el paso natural evolutivo del DM0. Con este
proceso se logra una mejor imagen de estructuras geológicas más complejas así
como una mejor definición de fallas. Aunque DM0 y PSTM son similares porque
mueven o "migran" datos a nivel pre-apilado se diferencian como sigue: a) en lo
que respecta al movimiento de la energía, en el DM0 este es pequeño mientras
que en el PSTM es mucho mayor, enviando la información directamente a su
11. posición final migrada; b) con respecto a los pasos necesarios para obtener la
imagen final migrada vía el DM0 se requieren tres etapas que son: migración
parcial (DM0) apilado (DMOSTACK) y migración postapilado mientras que con
PSTM todo el proceso de datos preapilados a sección migrada esta incluido en
una sola etapa.
Otra diferencia importante entre DM0 y PSTM es lo referente a velocidades: con
DM0 se tienen que analizar y determinar dos tipos de velocidades, una para
obtener un apilado óptimo y otra para la migración postapilado. Con PSTM se
puede usar una sola velocidad común para formar el volumen migrado final, ya
que ambos procesos, apilado y migración están implícitos en PSTM. Una gran
ventaja de esto, es la sensibilidad que la PSTM tiene a errores de velocidad.
Para el caso de la PSTM y en general para migraciones preapilamiento, la
secuencia de proceso finalmente abandona el modelo idealizado del "exploding
reflector", usándose en su lugar la teoría, de difracciones aplicada a los tiros
realizados en superficie, donde las ondas transmitidas y reflejadas son
consideradas como superficies envolventes a ondas elementales, las cuales son
generadas por difractores en el subsuelo, estos difractores son activados por el
frente de onda de llegada del tiro en superficie. La superposición de las
difracciones que llegan a la superficie componen la onda grabada por los
detectores (figuras 12 y 13).
En base a lo anterior, la migración preapilamiento en tiempo (Kirchhoff, por
facilidad) tiene por objeto encontrar la verdadera posición horizontal y vertical de
cada punto difractor que componen las diferentes capas, las cuales se
consideran sin variaciones laterales de velocidad. Para ello, en PSTM se busca
sumar todas las posibles difracciones elementales que componen el registro
sísmico grabado en superficie. Para cada curva de difracción, el resultado de la
suma se coloca en el vértice de la misma, que coincide en superficie con la
posición del difractor en el subsuelo. El tiempo vertical al difractor es el tiempo
de viaje (ida y vuelta) del rayo que se origina en él y que emerge
perpendicularmente a la superficie. Este se denomina "image ray". Ver figura 14.
12. La pregunta que surge es ¿qué sucede cuando en el subsuelo se presentan
variaciones laterales de velocidad?, si estas no son muy fuertes se asume que
el medio que existe desde la superficie a un reflector dado, puede reemplazarse
por una sola capa con velocidad constante VRMS (ver.figura 4) y entonces se
puede aplicar la migración PSTM. Esto es equivalente a decir que en medios
con geología levemente compleja PSTM arrojará resultados aceptables si las
curvas de reflexión grabadas en superficie pueden ser aproximadas a curvas
hiperbólicas definidas con una sola velocidad VRMS (Fig. 15).
Durante el período inicial de la adopción masiva de PSTM, se desarrollaron
metodologías de estimación de velocidades y migración PSTM de varios pasos
que incluían migraciones con velocidad constante, apilados de DM0 intermedios
y migraciones postapilado (el ciclo de "Deregowski" para PSTM). No será sino
hasta fines de los 90's en que gracias a la aparición del poder de cómputo
económico con PC Clusters que se utiliza la PSTM en un solo paso sin
aproximaciones, usando la misma en corridas múltiples con diferentes
velocidades para determinar con fuerte apoyo interpretativo, la velocidad óptima
de migración.
Otro proceso que se desarrolló durante esta etapa del desarrollo de la secuencia
de procesamiento fue la migración poststack en profundidad, debido a la
necesidad de obtener imágenes sísmicas de mejor calidad en áreas complejas,
tales como presencia de sal y bloques cabalgados. La migración en tiempo (sea
postapilado o preapilado) asume que la trayectoria de los rayos por el subsuelo
sigue trayectorias analíticas rectas o curvilíneas. Con la migración en
profundidad postapilado, se remueve la suposición de trayectorias rectas y se
busca el migrar los datos en base a las trayectorias reales de los rayos. En la
migración en profundidad tipo Kirchhoff esto se hace con trazado de rayos.
La migración postapilamiento en profundidad no se generalizó en forma masiva
como se esperaba, debido a dos problemas. Para realizar una migración exitosa
se requiere de un apilado, pero en áreas de geología compleja es casi imposible
obtener un apilado óptimo del subsuelo, ya que la teoría en que esta basada el
13. CMP (y del cual el apilado depende) no sustenta la propagación de rayos en
estos medios. El segundo problema con la migración en profundidad
postapilado es con la determinación de las velocidades de intervalo en
profundidad, comúnmente estas se derivan de las velocidades de. apilamiento
del DM0 en tiempo, las cuales se convierten a velocidades de intervalo en
profundidad por medio de la relación de Dix y se calibran con información de
pozo. El problema esta con las velocidades del apilado, las cuales se obtuvieron
a partir del análisis de curvas de reflexión hiperbólicas asociadas a trayectorias
de rayos rectos o curvilíneos y que no son válidos en medios de geología
compleja. Ambos problemas serán objeto de la siguiente tecnología de
procesamiento que aparece: la migración preapilamiento en profundidad.
Al terminar la década de los 80's, nos encontramos con las siguientes
características: el DM0 se hace en forma rutinaria y masiva con algoritmos
extremadamente optimizados, la migración PSTM se aplica con mayor
frecuencia y con métodos aproximados de múltiples pasos, la migración en
tiempo y en profundidad se hacen postapilado, utilizándose comúnmente los
algoritmos por diferencias finitas y de Kirchhoff. Las demandas del poder de
cómputo siguen aumentando al igual que la de lectura/escritura, debido
principalmente a que los volúmenes de datos 3D se incrementan
considerablemente, así. como el número de canales de grabación.
Secuencia de Procesado con Migración Preapilamiento en Profundidad
PSDM
Durante esta fase evolutiva de la secuencia de procesamiento, la migración
preapilamiento en tiempo continúa consolidándose y empieza a desplazar la
secuencia basada en DM0 y migraciones postapilado. Aparecen nuevos
esquemas en la estimación de velocidades de migración PSTM usando datos
migrados preapilados, lográndose mejores imágenes que las obtenidas con el
DM0 en zonas de geología compleja y fallas lístricas. Pero lo más significante
durante este fase del procesamiento, es la aparición comercial de la migración
preapilamiento en profundidad (PSDM), la cual se considera como la
14. herramienta geofísica ideal para lograr imágenes más realistas, claras e
interpretables del subsuelo en áreas de geología compleja.
Al igual que la migración preapilamiento en tiempo, la de profundidad PSDM
considera difractores en el subsuelo emitiendo ondas elementales (difracciones)
que forman vía superposición, las ondas reflejadas y grabadas en superficie. La
migración preapilamiento en profundidad es equivalente a migrar las ondas
elementales que componen las reflexiones, esto se realiza sumando la energía a
lo largo de las difracciones y colocando el resultado en una posición en
superficie que corresponde directamente sobre el punto difractor.
La diferencia básica entre PSTM y PSDM, está en la forma que tienen las curvas
de difracción y en donde se coloca el resultado de la suma a lo largo de ellas. En
PSDM las curvas de difracción son calculadas vía trazado de rayos, usando las
velocidades de intervalo asociadas al modelo del subsuelo. El resultado de la
suma se coloca en superficie verticalmente arriba del difractor
independientemente de la forma de la curva de difracción o de la dirección de los
rayos emergentes. Ver figura 16.
Al aparecer la PSDM, esta se adopta rápidamente, beneficiándose de un
desarrollo acelerado, en parte gracias a los avances y disminución en costo del
poder de cómputo y almacenamiento de datos. La exploración del Golfo de
México tiene un éxito enorme debido a esta tecnología, se empieza a explorar
por debajo de los cuerpos de sal, con las imágenes que se obtienen se empieza
a entender la tectónica salina, se entiende el movimiento complejo de la sal, se
observa que los cuerpos son lentes y no domos con raíces profundas como
antiguamente se consideraba.
Los algoritmos mas utilizados en la migración PSDM son el de Kirchhoff y el de
Ecuación de Onda. El de Kirchhoff fue el primero por su rapidez y eficiencia en la
estimación de velocidades, para la cual solo se producen líneas sísmicas
migradas y no volúmenes completos, donde se analizan y seleccionan
velocidades. La migración de Kirchhoff fue el detonador de un número diverso
15. de métodos para la estimación de tiempos viaje de la propagación de ondas a
través de medios complejos basados en el trazado de rayos.
Por lo que respecta a la migración por ecuación de onda, esta aparece mas
tarde, siendo las ventajas de esta, que no hay que trazar rayos para estimar los
tiempos de viaje de las ondas ya que la ecuación de onda , en principio, cubre
todas las opciones de propagación de rayos en forma implícita.
Con el uso de la PSDM se desarrollaron metodologías geofísicas de estimación
de velocidades de intervalo, algunas de ellas interactivas que modifican el
campo de velocidad en forma automática en función del aplanamiento de los
gathers migrados. Aparece el método de estimación de velocidades por
tomografía el cual se desarrolla en forma acelerada. La aparición de la PSDM
tiene una importante consecuencia adicional: el desarrollo de una verdadera
interacción de intérpretes y procesadores para la construcción del modelo de
velocidades en profundidad.
Para tener un mejor entendimiento en el muestreo y formación de la imagen
sísmica y de los factores que afectan la PSDM, se refinan los métodos de
eliminación de múltiples, algoritmos para interpolar, regularizar y preacondicionar
los datos y se llevan a cabo estudios de iluminación, sobre todo por debajo de
cuerpos de sal.
Con la utilización masiva de la PSDM hay un incremento substancial en la
demanda del poder de cómputo y de lectura/escritura, los PC clusters se
incorporan rápidamente por su bajo costo, reemplazando las computadoras más
especializadas (como la de memoria compartida SGI Origin, la de procesamiento
distribuido IBM SP2 o la de procesamiento vectorial NEC o Fujitsu). Los
algoritmos de PSDM son optimizados tanto para la estimación de velocidades
como para la migración del volumen completo, observándose variaciones
importantes en la calidad, fidelidad y rigor teórico de los algoritmos de
migración, tanto de Kirchhoff como de ecuación de onda.
16. Secuencia de Procesamiento Sísmico en Pemex
El reto de obtener una imagen sísmica del subsuelo de la mejor calidad es uno
de los objetivos principales. La secuencia de procesamiento básica hasta antes
de apilado y migración que se utiliza sigue siendo fundamentalmente la misma
desde que apareció el DM0, sin embargo se usan nuevos y mas eficientes
algoritmos tales como los de atenuación de ruido, de eliminación de múltiples y
en general algoritmos que preservan la amplitud. La secuencia de proceso que
se aplica en PEMEX inicia con correcciones de amplitud por divergencia esférica
e instrumentación, editado de trazas ruidosas, estáticas de refracción,
atenuación de ruidos superficiales, deconvolución consistente con superficie,
atenuación de múltiples, pasos múltiples en el análisis de velocidades (NMO),
así como estáticas residuales consistentes con superficie.
Para la atenuación de ruido hoy en día se analizan los datos en diferentes
dominios, en el del tiro, del receptor, del denominado cross-spread, del offset,
para entender mejor el patrón y naturaleza del ruido y así diseñar óptimamente
filtros para atenuarlo, esto ha sido posible gracias a la disponibilidad de
hardware eficiente y económico para manipular (lectura/escritura) en tiempos
prácticos las grandes cantidades de datos preapilados.
Los procesos de DM0, apilado y migración postapilado han sido relegados a un
segundo plano, siendo reemplazados por la migración preapilamiento en tiempo,
la PSTM que se realiza en forma rutinaria. Para esta, se han desarrollado y
adoptado diferentes metodologías de estimación de velocidades de migración,
que se fundamentan en la generación y análisis de "scans" de migraciones
múltiples realizadas con diferentes velocidades, así como en la generación y
análisis denso del picado de velocidades (cada CMP) y realizar los análisis tanto
en dirección de la línea como de la cross línea. Por supuesto se siguen
efectuando los análisis de velocidades por semblanza tradicionales.
Como parte integral de la secuencia de procesado con PSTM, se lleva a cabo un
análisis de velocidades residuales después de la migración misma. Con esto se
reconoce el hecho de que la migración en tiempo no logrará aplanar los gathers
17. en áreas de geología compleja y las velocidades residuales tienen como objetivo
aplanar los gathers después de migrarlos, pero antes de apilarlos y así obtener
el mejor apilado-migrado posible.
Es importante mencionar dos aspectos importantes de la forma en que Pemex
trata de optimizar la generación del campo de velocidades PSTM: primero, ser
dinámico y tratar de aplicar la metodología específica (o combinación de ellas)
que más se adecue a los problemas geológicos y a la calidad de los datos,
segundo, tratar de trabajar muy estrechamente con los intérpretes durante el
proceso de selección de velocidades y en general, durante toda la secuencia de
procesamiento.
Otro proceso de la secuencia, que está recibiendo bastante atención dentro de
Pemex, es la migración pre-apilamiento en profundidad (PSDM). A ésta aún no
se le ha dado un uso masivo, pero seguramente lo tendrá en el muy corto plazo
y será el reemplazo natural evolutivo de la PSTM (lo que se está dando a nivel
internacional). Por el momento a PSDM se le ha venido aplicando en áreas o
proyectos específicos, en particular en zonas de cinturones plegados así como
zonas con cuerpos de sal y lutita. Comúnmente las imágenes sísmicas iniciales
de referencia y el modelo de velocidades de arranque para PSDM han sido
dados por los productos obtenidos de PSTM. En este contexto, ambas
migraciones, PSTM y PSDM son complementarias y ambas deben de ser
consideradas muy estrechamente como parte del paquete de herramientas para
resolver el problema exploratorio de imagen sísmica.
Pemex esta haciendo un esfuerzo para entrenar y capacitar a su personal en la
tecnología de PSDM. Los supervisores, analistas, geofísicos e intérpretes, cada
uno en su ámbito de competencia deben de estar bien preparados para
entender, aplicar, juzgar y verdaderamente poder extraer los beneficios que
PSDM promete y ofrece. El utilizar la PSDM solo como concepto tecnológico de
que es la última solución para lograr verdaderas imágenes del subsuelo no
asegurará que se obtengan resultados satisfactorios. Mal trabajada, en particular
en la construcción del modelo de velocidades, la PSDM puede producir
18. imágenes inferiores a las de tiempo. Tenemos que estar bien preparados para
aprovechar el potencial que la migración pre-apilamiento en profundidad tiene
para lograr imágenes sísmicas excelentes y confiables prácticamente en
cualquier tipo de área geológica.
Se mostrarán algunos ejemplos donde se han aplicado los conceptos anteriores,
se verán exclusivamente los resultados finales de cada secuencia de proceso,
se mostrara la sección migrada post-apilada, la sección con preapilamiento en
tiempo así como la sección con preapilamiento en profundidad. En la figura 17,
se despliega un ejemplo con datos marinos del Golfo de México en aguas
profundas, donde se observan las diferencias en la imagen que se obtiene con
cada paso del proceso, otro ejemplo mas impactante, se observa en la figura 18,
donde con migración preapilamiento en tiempo, no se logra ver imagen debajo
del cuerpo de sal, una vez que se aplica la migración preapilamiento en
profundidad, tenemos una imagen bastante mejorada del subsuelo, es por eso
que PSDM ha sido de muy alto valor en la exploración subsalina, otro ejemplo,
en este caso de tierra, nos muestra como en algunos casos la migración
preapilamiento en tiempo resuelve el problema sin necesidad de irnos a
profundidad, el ejemplo que se muestra en la figura 19, corresponde a la cuenca
de Veracruz, en el frente de sierra.
Con las migraciones PSTM y PSDM la demanda de poder de cómputo sigue
incrementándose, así como de lectura/escritura eficiente de datos preapilados,
debido en gran parte a las múltiples iteraciones que se llevan a cabo, y los
volúmenes de datos cada vez más grandes. Para ello, la adopción de PC
clusters y de tecnologías comunes de almacenamiento de datos e
interconectividad entre servidores (redes) se ha establecido fuertemente y
seguirá incrementándose dentro de PEMEX.
19. Bibliografia
Berryhili, J. R., 1979, Wave equation datuming: Geophysics, y. 44, 1329-1344.
Brown, A. R., 1978, 3-D seismic interpretation methods: presented at the 48th
SEG Mtng.
Claerbout, J. F., 1985 Imaging the Earth's Interior: Blackwell Scientific
Publications Oxford.
Deregowski, S. and Rocca, F., 1981, Geometrical optics and wave theory for
constant-offset sections in Iayered media: Geophysical Prospecting, y. 29, 374-
387.
Dix, C. H., 1955, Seismic velocities from surface measurements: Geophysics, y.
French, W. S., 1974, Two-dimensional and three-dimensional migration of
model-experiment reflection profiles: Geophysics, y. 39, 265-277.
Gardner, G. H., McDonald, J. A., Watson, T. H., and Kotcher, J. S., 1978, An
innovative 3D marine seismic survey: Presented at the 40th EAEG Mtng.
Gazdag, J., 1978, Wave-equation migration with the phase-shift method:
Geophysics, y. 43, 1342-1351.
Hilterman, F. J., 1970, Three-dimensional seismic modeling: Geophysics, y. 35,
1020-1037.
Hilterman, F. J., 1982, Interpretative lessons from three-dimensional modeling:
Geophysics, y. 47, 784-808.
Jakubowicz, H., and Levin, S., 1983, A simple exact method of 3-D migration -
theory: Geophysical Prospecting, y. 31, 34-56.
20. Johnson, J. P., and Bone, M. R., 1980, Understanding fleid development history
utilizing 3D seismic: Presented at the OTC Conf., 473-475
Kjartansson, E., 1979, Modeling and migration by the monochromatic 45-deg
equation: Stanford Exploration Project, Report No. 16, Stanford University
Lehmann, H. J. , and Houba, W., 1985, Practical aspects of determination of 3-D
stacking velocities: Geophysical Prospecting, y. 33, 34-51.
Levin., F. K., 1971, Apparent velocities from dipping interface reflections:
Geophysics, y. 36, 510-516.
Robinson, E. A., 1967, Multichannel z-transforms and minimum delay:
Geophysics, y. 31, 482-500.
Robinson, E. A. and Treitel, S., 1980, Geophysical signal analysis: Prentice-Hall
Book Co.
Schneider, W. A., 1978, Integral formulation of migration in two-and three
dimensions: Geophysics, y. 43, 49-76.
Schultz, P., and Clearbout, J., 1978, Velocity estimation by wavefront synthesis:
Geophysics, y. 43, 691-712.
Schultz, P., 1982, A method for direct estimation of interval velocities:
Geophysics, y. 47, 1657-1 671.
Sheriff, R. E., 1976, lnfering stratigraphy from seismic data: Am. Assoc. Petr.
Geol. Buli., y. 60, 528-542.
Stolt, R., H., and Benson, A. K., 1986, Seismic migration; theory and practice:
Geophysical Press, London-Amsterdam.
Taner, M. T., 1980, Long-period sea-floor multiples and their supression:
Geophysical Prospecting, y. 28, 30-48.
21. Taner, T., and Coburn, K., 1981, Surface consistent deconvolution: Presented at
the 51st
SEG Mtng.
Treitel, S., and Robinson, E. A., 1966, The design of high resolution filters: IEEE,
GE-4,
Yilmaz, 0., 1974, The problem of resolution and reverberations in reflection
seismology: J. Geophysical Soc. Turkey, y. 5, 2.
Yilmaz, 0., 2001, Seismic Data Analysis: Processing, Inversion, and
interpretation of Seismic Data. y 1 and y H. Series: lnvestigations in Geophysics.
SEG.
22. F3 R1 R2 R3
—•-----—t--- -> Ti ro 3
F2 R1 2
3
—»Tiro2e
Tiro 1
y1 P1
vi pi v2p2
'1 =
vi pi +v2p2
v2P2
Fig. 1 Modelo geofísico del subsuelo: capas planas. Una fuente F emite ondas, las
cuales se propagan a lo largo de rayos. Estas se reflejan donde existe un cambio de
impedancia acústica 1. Reflectores R en superficie graban las reflexiones. El
experimento se repite para una serie de tiros, avanzando progresivamente a lo largo
del área prospectiva.
23. Tiro2 r, T T
Tiro
eflexiones del mismo
reflector y diferentes
puntos de reflexión
Fig. 2 Modelo geofísico de reflexión: Las reflexiones sísmicas grabadas en superficie
se consideran trayectorias hiperbólicas. T representa la traza correpondiente al
detector R mostrado en la .Fig. 1.
24. z i Frente de onda
envolvente
Reflector
F1 2345
Frentes de onda
elementales
Fig. 3 Modelo del exploding reflector. Uno de los productos básicos del
procesamiento es la sección apilada. Esta representa la respuesta sísmica grabada
de un experimento idealizado en el cual los reflectores emiten frentes de onda a
tiempo cero.
25. Offset
Curvacon 2
VRMS y =
RMS
Curva real
Fig. 4 El concepto de la velocidad RMS. Un modelo del subsuelo de capas
horizontales, cada una con velocidad de intervalo diferente, se reemplaza por una
capa con velocidad Vis. Las curvas de reflexión de ambos modelos son
prácticamente las mismas, aumentando sus diferencias con el offset.
26. 1
2I
Tirr9Tr,-4
Fig. 5 El concepto del CMP (punto medio común). En superficie, el CMP es el punto
medio entre fuente y detector. Para capas planas, el CMP en superficie coincide con
el punto de reflexión en el subsuelo.
27. Tiro 1 Tiro 2
P. T T T T T T
CMP sin NMO
CMP 1 F 1 /T1 F2/T2 F3/T3
}
CMP con NMO
CMP 1 F11T1 F2/T2 F3/T3 CMP Apilado
......T;... j
Fig. 6 Reflexiones en Tiros, CMP y Apilado. Un objetivo básico de la secuencia de
procesamiento es formar la sección apilada. Los registros sísmicos grabados en
supeficie son re-arreglados de tal forma que se agrupan las trazas que comparten un
mismo punto medio comun CMP (ver Fig. 5). Cada reflexión del CMP se aplana (se
aplica la corrección de NMO) y se suma horizontalmente para cada tiempo. El
resultado es la traza sísmica apilada.
28. R R7 R R4
z
- -
tv
T3
t
_4Reflexión
apilada
Fig. 7 Las reflexiones de un apilado se consideran como curvas envolventes a ondas
elementales producidas por difractores. Estos irradian de cada capa a tiempo cero.
29. Zona anómala de
veloddad, reUeve,
compactación, etc.
Fig. 8 El concepto de consistencia con superficie. Se asume que existen
distorsiones a la forma de la ondícula, a los tiempos de viaje o a otros atributos de
la propagación de ondas, que son comunes para todos los rayos que salen de una
misma fuente o llegan a un mismo detector. Estos efectos son producidos por
condiciones del subsuelo cercanos a la superficie, dependen de dónde se encuentra
colocada la fuente o el detector.
30. Modelo Sección ApIlada
1 2 R3 R4
z
Da
Db
D
Modelo Sección Migrada
E1 2 F34
Da
Db
T3
Apilamiento
ts
Reflexión de
"Da grabada
enR2
Reflexión de- -
"Db" grabada
enR3
R 1 R7 R. T2 T3
1.
Migración
tM
Reflexión de
"0a migrada
aRi
Reflexión de -
Db" migrada
a R2
Fig. 9 Capa inclinada y migración postapilado. El apilado muestra la reflexión
proveniente de una capa inclinada en una posición horizontal en superficie errónea.
La migración postapilado corrige esto, moviendo horizontal y verticalmente la
reflexión.
31. z
Puntos de reflexión
no coincidentes Puntos de reflexión
coincidentes
CMP1 F 1 1T1 F2/T2 F 31T3
Reflexión de la
capa inclinada
Reflexión de la
capa horizontal
Fig. 10 La necesidad del DM0. Cuando existe una capa horizontal y una inclinada,
la velocidad con que se aplanaría cada curva de reflexión es diferente.
Adicionalmente, para la capa inclinada y un CMP dado, los puntos de reflexión de
cada par fuente-detector no coinciden.
32. Trayectoria del
Z rayo de la traza
: apilada con DM0
fJ
CMP's donde
la traza apilada
se colocaría...
con DM0 sin DM0
lo
Offsetl2
4
0ffset/2
01
F ., - R
Offset/2 0ff setl2
CMP
Se asumen capas
planas en todos los
puntos tangenciales
a la elipse
Fig. 11 El proceso del DM0. Para una fuente y receptor dados, el rayo normal a
una capa en el punto de reflexión no coincide en superficie con el CMP. El DM0
mueve (o mapea) la energía de reflexión a lo largo de una elipse. De esta forma,
cada par fuente-detector contribuye a una familia de CMP's que son los puntos de
emergencia de los rayos perpendiculares a cada capa.
33. rentes de Onda
del reflector
Fig. 12 Entendiendo datos preapilados: ondas reflejadas y ondas elémentales de
difractores en el subsuelo. Estos irradian al ser excitados por la onda del tiro en
superficie.
34. Di D2;3
+
F
Z,
DI
Reflexión del
clx (envoineete)
Fuentes de Onda
de drfraclores
Fig. 13 Migraciones preapilamiento consideran reflexiones en superficie como la
superposición de difracciones, con difractores en el subsuelo.
35. o de difractor
ergenle en R
/
02
Fig. 14 La migración PSTM busca difracciones a lo largo de simple curvas
cuadráticas y suma la energía a lo largo de ellas. El resultado se coloca en el
vértice de cada difracción.
36. entes de
onda
compIejos
Posición
vertical
Punto
Curva cuadrática 1
1
Ápice con YRIVIS
con VRMS >
Mejor ajuste Dosib!e a
Curva real
CONTRASTE LATERAL DE
VELOCIDAD "LIGERO"
Fig. 15 En medios de geología compleja, PSTM asume que el subsuelo compuesto
por varias capas puede ser reemplazado por una sola capa con velocidad Vs. La
curva de difracción verdadera es aproximada con una curva cuadrática definida con
VRMS.
37. Punto verticat
al difractor
¡4
1'
ri
Frentes de
onda complejos
V(X,Y,Z)
RASTE LATERAL
/ERTl CAL DE
CIDAD FUERTE
Punto vertical
al difractor
vi
1
e
Curva con VeMs (PSTM)
Fig. 16 En PSDM las curvas de difracción se calculan via trazado de rayos con las
velocidades de intervalo de las capas del subsuelo. La idea es obtener una
representación más realista de la propagación de ondas, independientemente de
la complejidad geológica del subsuelo.
38. 42
2 0'
-- --- -. - . 4
O 23
Ti ro
Poot Sok tlUe m'g vol
001120 002 0021007 10021002400211221002 100710021042 0021002 100U062 10021002 002100210024002 1002P
36
_ u
(1 o'
- 3 -
< E7
/-
2o .-
- 00
.--
'4
000(3300
4 (2
ZZ
O
- :
--
ri
002100210021 21002100210021 21 21 20 210*2 Wo21*Q20O2 1*02 400210021002100210021002 104
2. 4110 4010 1212 21 *- 002T0 1010 1210 2100 2330 0220 2100 2410 OÇO ullI 2712 201* 2010 3010 'i2
Fig. 17 Comparación de procesos: a) Migración Postapilado, b) Migración
Preapilado en Tiempo (PSTM), c) Migración Preapilado en Profundidad
(PSDM).
39. .- a.S,.# _.•- .
.-.
PSDM PSTM
(convertido a tiempo)
• . ' I .' r • ••
1
- -
- /
• • • '?I3l . *Q', •
1 -
- •
Ti
-
-' •
,- _-i• - -•. -........•• .
t -. .
;.-,'.• -..--
-
Fig. 18 Imagen Subsalina. Obsérvese los eventos que aparecen por debajo del
cuerpo salino (PSDM) no evidentes en PSTM.
40. Migración Postapilada Migración Preapilada
en Tiempo en Tiempo (PSTM)
anno
-
- •- •-- -
• --•
•
- -
Fig. 19 Comparación en frente tectónico. Obsérvese la claridad de las estructuras
por debajo de la discordancia en PSTM, no claramente definidas en la migración
postapilado.