Ценность данных в условиях низких цен на нефть

Что ж, для нефтяников наступили не лучшие времена – упала цена на нефть с привычных нам $100 за баррель до $60. И ситуация такова, что скорого роста цен не предвидется. Во многих компаниях вовсю идут сокращения бюджетов, приостановки бурения новых скважин, заморозка проектов, ну и зачастую сокарщения персонала.

Очень часто одной из первых целей при сокращении затрат, или как это часто называется “оптимизации затрат” являются программы усследований. Уверен, что многие уже столкнулись с необходимостью пересмотра программ исследований в сторону сокращения. Но, если посмотреть на вещи с другой стороны, на самом деле не все так просто.

Уверен, что если вы спросите любого инженера или геолога, о том сколько данных лучше всего иметь при составлении программы разработки месторождения, то практически все ответят, что тем больше тем лучше. И это конечно же так с технической/инженерной точки зрения. Чем больше данных тем меньше рисков и неопределенностей. Но перефразировав известный рекламный слоган, что “не все йогурты одинаково полезны”, скажу что к сожалению, далеко не вся информация, получаемая в результате проведения дополнительных исследований, является ценной с точки зрения снижения неопределенностей и рисков и использования ее для улучшения экономических показателей проекта.

Рассмотрим простой пример оценки ценности информации (value of information, VOI) на примере достаточно часто возникающего на практике решения о проведении сейсмики. Пример рассмотрим абсолютно гипотетический, для того, чтобы только понять принцип работы. И выяснить в каких случаях наличие сейсмики является ценной, а в каких случаях полученная информация не может быть использована для улучшения экономики проекта.

Допустим, что у некой нефтяной компании имеется достаточно крупное нефтяное месторождение, часть которого активно разбурена и разрабатывается, а на второй половине пробурено лишь некоторое число разведочных и оценочных скважин. Также допустим, что все месторождение покрыто сейсмикой 2D или также это может быть 3D, но не очень хорошего качества, сути рассуждений это не меняет. При планировании разработки первой части месторождения, предварительно перед фазой активного бурения допустим была проведена сейсмика, которая наряду с другими промысловыми данными была использована для расстановки скважин. И конечно же, по мере разбуривания месторождения информация о строении залежи и его свойствах уточнялось, что-то соответствовало прогнозам, что-то нет. Но тем не менее, в итоге, имея разбуренное месторождение, можно прикинуть статистику по результативности бурения, построить диаграммы распределения дебитов, накопленных запасов и т.д. А также попытаться найти некие корреляции между сейсмическими атрибутами и фактическими показателями продуктивности скважин, чтобы оценить, можно ли использовать сейсмические аттрибуты для предсказания наличия высокопродуктивных зон. И если такие взаимосвязи имеются, то сейсмика проведенная на второй неразбуренной части месторождения поможет заранее подсказать нам зоны благоприятные или неблагоприятны для бурения (разумеется лишь с некой долей уверенности). Таким образом, мы сможем избежать бурения экономически нерентабельных скважин, и сфокусироваться только на тех, которые могут принести доход.

Итак, имея в распоряжении статистику распределения продуктивностей и запасов скважин на первой половине месторождения, можно с достаточно большой степенью достоверности утверждать, что если мы будем следовать такому же принципу по планированию разработки второй части, то итоговое распределение дебитов и запасов будет примерно такое же. Предполагаем, что эти половинки более или менее похожи.

Как правило продуктивности скважин и запасы имеют достаточно явно выраженное лог-нормальное распределение. Хотя варианты могут быть достаточно разными, к примеру на одном из наших проектов наблюдалось явно выраженное бимодальное распределение с ямой в районе P50.

Итак получив оценки P10, P50 и P90, переходим к решению задачи с помощью дерева решений, используя метод дискретизации Свонсона (30-40-30).

Далее проводим экономическую оценку каждой из трех групп скважин с продуктивностью и запасами P10, P50 и P90. Для наглядности введем некоторые цифры, чтобы было понятнее что к чему.

В таблице ниже приведены расчеты NPV для одной скважины при ценах на нефть $100 и $60 долларов за баррель:

SummaryОбращаем внимание, что при низких ценах не нефть скважины с низкой производительностью становятся нерентабельными.

Итак, применяя дискретизацию 30-40-30, мы можем оценить ожидаемое значение NPV (EV или P-Mean): при цене $100 это $7.2 MM, а при $60 – $3.0 MM.

noSeismic_60

Допустим, что для разработки второй половины месторождения запланировано пробурить 100 новых скважин. Тогда без дополнительной информации примерно 30% из них попадут в категорию RL, 40% в BTE, и 30% окажутся в RH. В случае низких цен на нефть, cуммарный NPV проекта $300 ММ (что в принципе весьма неплохо). Но несмотря на то что проект в целом рентабельный, экономику проекта можно было бы улучшить, если бы каким-либо образом удалось исключить из бурения заведомо нерентабельные скважины. Суммарный NPV 30 скважин, имеющих плохую продуктивность, составляет $(120) MM (очень существенная часть – 40% от общей экономики проекта).

Допустим, что решили потратить $15 MM на проведение сейсмики.

В идеальном мире, где сейсмика со 100% уверенностью предсказывает свойства пород, дерево принятия решения о бурении скважин на основе полученных данных

VOIP_Seismic_60

Тем самым му смогли бы со 100% достоверностью отказаться от бурения низкопродуктивных скважин и улучшили бы экономику всего проекта на $120 ММ, что однозначило стоило того, чтобы потратить дополнительные $15 MM.

Но реальность такова, что дополнительные данные, и в частности сейсмика не предскажут со 100% уверенностью, куда надо бурить, а куда нет. Для учета факта несовершенства информации, проводят следующие рассуждения (в нашем случае эти рассуждения подкреплены статистикой с первой половинки месторождения). Сначала добавляем к первоначальному дереву еще один уровень, в котором пытаемся оценить вероятность, того что сейсмика предскажет правильно фактическое положение вещей (другими словами, к примеру, какова вероятность того, что при наличии высокопродуктивной зоны, сейсмика будет проинтерпретирована, как высокопродуктивная):

Bayesian_Revision

 

Однако в жизни, мы заранее не будем знаем состояние природы, в наличили у нас будут результаты сейсмики и рассуждения мы будем проводить в другом порядке. Для этого меняем местами первый и второй уровни дерева, сохраняя вероятности в итоге получаем дерево такого вида:

Bayesian_Revision_2

Дополняем еще одним уровнем, на которым мы принимаем решение о проведении сейсмики, и вводим значения NPV:

VOII_Seismic_60

Получаем, что для наших допущениях о несовершенности ценность информации около $30, что в целом выше чем стоимость проведения сейсмики. Другими словами сейсмику следует провести. Избежать бурения всех нерентбельных нам конечно же не удастся, но по крайней мере ситуация будет несколько лучше.

Теперь допустим, что после того, как мы простреляли сейсмику, обработали и проинтерпретировали результаты цены на нефть снова выросли до $100 долларов, таким образом, наше итоговое дерево решений стало выглядеть таким образом:

VOII_Seismic_100

В ситуации высоких цен нефть, все скважины становятся рентабельными и независимо от показаний сейсмики мы принимаем решение бурить. Т.е. сейсмика не дает нам никакой дополнительной информации.

Обобщая все выше сказанное, можно утверждать, что при низких ценах не нефть, дополнительная информация, позволяющая значительно снизить неопределенность и риски является гораздо более ценной, чем в случае высоких цен на нефть, когда деньги на проведение дополнительных исследований есть, но они могут оказаться избыточными.

Само собой разумеется, что данный пример был очень упрощенным. В реальной жизни все несколько сложнее. В нашем примере, проведенная сейсмика могла бы также послужить неплохой основой для ранжирования скважин и составления графика бурения, а также могла бы быть использованая для оптимизации расположения скважин (сетки скважин) и пр.

Share

“Хозяюшке” на заметку #2: Формулы кривых падения добычи

В течение последнего месяца меня пару раз просили прислать пример Excel файла с формулами для расчета профилей добычи по кривым падения. Несмотря на то, что формулы расчета очень простые каждый раз доставляает неудобство вбивать формулы ручками или искать старые файлы с расчетами. Решил, что будет полезно разместить файлик с расчетами тут. Желающие могут скачать.

В файле реализованы 3 основных типа падения экспоненциальное (b=0), гиперболическое (0<b<1) и гармоническое (b=1). Фактор b может также принимать значения больше единицы, как это часто используется в расчета добычи сланцевого газа и нефти.

Формула для расчета падения гиперболического типа, может в принципе без дополнительных правок формул быть использована для расчета экспоненциального и гармонического падения, если задать фактор b близким, но не равным соответственно 0 и 1, скажем 0.00001 и 0.99999.

В качестве шага по времени в файле использован месяц. В принципе, это легко изменить на дни или годы, не забыв при этом изменить коэффициент падения на соответствующий.

DCA

Ссылка на файл с расчетами: DeclineRate

Share

Планирование эксперимента (продолжение)

Тема планирования эксперимента (Design of Experiment) вызвала некоторый интерес. После вопроса о том, как выполняется нелинейная регрессия и используется ли для этого специализированный софт, я решил написать что-то вроде мини инструкции, как это может быть реализовано в Excel без необходимости приобритения коммерческих add-in или наличия специализированного софта. В принципе все, что было описано ранее в первом топике о планировании эксперимента, можно реализовать, используя лишь стандартные возможности Excel, не прибегая ни к каким стронним продуктам. Единственный add-in, которым нужно будет воспользоваться это Solver (или в русской версии офиса – Поиск Решений). Он входит в стандартный набор и уже предустановлен. Для его использования нужно лишь в Параметрах Excel в разделе Надстройки, после нажатия на кнопку Перейти… (Go…) в нижней части окна, в появившемся диалоговом окне выбрать его в списке адд-инов (вот блин тяжела работа тех, кто составляет мануалы к программам). Это верно для 2013 офиса, в более ранних последовательность действий чуть отличается, но суть одна. После того, как вы это сделаете, на панели Данные в правой ее части появится дополнительная секция – Анализ с кнопкой “Поиск решения” (на скриншоте ниже видна эта кнопка):

Excel

Для демонстрации того как это может быть реализовано в Excel, я решил попробовать аппроксимировать простенькую функцию, представлющую собой логарифм произведений парабол, заданных на отрезке [-1,1]:

    \[Y=ln(1+\prod_{i=1}^{m}(a_{i}x^2+b_{i}x+c_i))\]

Для некоторого подобия нефтяным задачам, параболы в интервале [-1;1] были выбраны возрастающими (кроме одной, для проверки точности аппроксимирующей функции). Таким образом значения параболы при x=-1 представляет собой пессимистичную оценку, при +1 оптимистичную, 0 – базовый (средний) вариант

Таблицу с планом Плакетта-Бермана, для 7 параметров гуглим в интернете, находим где должны быть +1, а где -1 и воспроизводим в Excel. Стандарный план Plackett-Burman представляет собой лишь верхнюю часть таблицы (до строчки с нулями), мы его немного расширили, сделав так называемый зеркальный план. Симметрично скопировав верхнюю часть (для малоопытных в Экселе, делаем Копировать-Вставить, затем копируем -1 из любой ячейки, делаем Скопировать-Специальная вставка – Значения / Умножить), получаем зеркальный план, который лучше подходит для нелинейных задач.

В таблице ниже вводим значения коэффициентов прокси-функции. В данном случае это будет нижне-диагональная матрица, элементы которой являются коэффициентами следующего уравнения:

    \[y=a_0+\sum_{i=1}^{m}a_{i}x_{i}+\sum_{j>i}^{m}a_{ij}x_{i}x_{j}+\sum_{j=1}^{m}a_{jj}x_{j}^{2}\]

Для начала присваиваем 0 всем значения этой матрицы. Затем записываем формулу, рассчитывающую значения прокси-функции по значениям параметров (+1 и -1) с использованием коэффициентов матрицы (столбец S примера).

Для того, чтобы начать регрессию коэффициентов, нам нужно будет также задать целевую функцию, которую нужно минимизировать. В этом случае это будет сумма квадратов ошибок (y_{obs}-y_{proxy})^2

После того, как все функции заданы, осталось лишь запустить линейную регрессию. На панели Данные, запускаем поиск решения. В появившемся окне, в поле “Минимизировать целевую функцию” выбираем ячейку с суммой квадратов ошибок (ячейка Т29 в примере). Выбираем цель – Минимум. В поле “Изменяя ячейки переменных” выбираем столбцы нижне-диагональной матрицы. В качестве метода решения выбираем “метод ОПГ”. И нажимаем кнопку “Найти решение”. Спустя несколько секунд коэффициенты будут найдены. Как видно из графика справа, значения прокси-функции и точные значения исходной функции имеют очень хорошую корреляцию.

Excel_2

 

Следующий шаг, запуск моделирования Монте-Карло я описывать не буду.

Файл с описанным примером, вышлю по запросу каждому желающему.

 

Share

MRST – Reservoir Simulation Toolbox for MATLAB

Недавно обнаружил одно очень интересное расширение для Matlab, которое называется MRST (Matlab Reservoir Simulation Toolbox) и разрабатывается Sintef Applied Mathematics.

В описании на их сайте сказано, что данное расширение состоит из двух основных частей – ядра и наборе дополнительных модулей. В ядре реализованы базовые функции для работы с данными, а также одно- и двух- фазные солверы. А дополнительные модули предлагают более продвинутые модели, визуализаторы и солверы. Основная цель данного модуля – это разработка прототипов и демонстрация новых методов моделирования или подходов в моделировании на неструктурированных гридах.

Также по заверениям авторов, несмотря на то, что большинство модулей представляют из себя в некотором роде экспериментальные методы, многие из них могут вполне эффективно использоваться для выполнения расчетов на больших и сложных моделях.

Также они участвуют в проекте Open Porous Media (OPM) initiative, где они участвуют в разработке симулятора с открытым исходным кодом.

Share

Применение планирования эксперимента (Design of Experiments)

Пожалуй, начнем так – “Вы все еще монтекарлите традиционным способом, тогда мы идем к вам”.

В этом посте я хочу рассказать о применении метода планирования эксперимента (design of experiments) для проведения анализа неопределенностей. В большинстве случаев, когда результат, зависимый от нескольких неопределенных параметров, нельзя получить спустя несколько секунд после изменения входных данных, я предпочитаю пользоваться этим методом. Это позволяет значительно экономить время и при этом получать весьма хорошие результаты.

Сначала предыстория. Месяц назад нужно было в срочном порядке вставить новую ранее не утвержденную скважину в программу бурения. На данный момент согласно нашей модели скважина выглядит весьма привлекательно, более того по запасам и стартовому дебиту лучше всех остальных скважин. При этом скважина будет расположена в той части, в которой до сих пор имеются достаточно высокие неопределенности по пористости, NTG, проницаемости, трещиноватости, наличию или отсутствию высокопроводимых каналов, вертикальной анизотропии (Kv/Kh) и пр. В общем, у многих есть сомнения на счет того, что это лучшая скважина в проекте.
Модель на которой базируются все наши расчеты, точнее говоря три версии модели – пессимистическая, наиболее вероятная и оптимистическая (Low, Mid and High) – заматчены на историю с учетом результатов сейсмики 4D. И в целом по всему месторождению эти варианты модели примерно соотносятся по запасам с P90, P50 и Р10. Детальное вероятностное моделирование было проведено несколько лет назад, и после этого не было очень серьезных правок.
Но получилось так, что в зоне расположения этой скважины разбег по свойствам оказался минимальным, что в принципе ничему не противоречит. В результате, накопленная добыча этой скважины не очень сильно отличалась по все трем вариантам (тут надо заметить, что речь идет об инкрементальной добыче – думаю, что об этом надо отдельный пост написать как-нибудь). Минимальный разбег по вариантам, никого не устраивал, поэтому было решено провести детальный анализ неопределенности, но только в той части пласта, в которой будет расположена скважина, чтобы не разрушать адаптацию модели. К счастью, эта часть пласта практически не взаимодействовала с разрабатываемой частью месторождения, поэтому любые махинации со свойствами не очень сильно влияли на работу существующих скважин.

При традиционном моделировании Монте-Карло, для того чтобы получить хоть какое-то представление о функции распределения запасов скважины (в данном случае речь идет о накопленных запасах скважины), пришлось было бы провести не одну сотню расчетов. А учитывая, что в нашем случае результат нужно было получить, проведя расчеты в симуляторе, затрачивая по 2 часа на вариант с максимумом 5 параллельных расчетов на кластере, то заняло бы это достаточно долгое время. Тратить рабочее время на подобные расчеты представляется крайне непрактичным.

В данном случае планирование эксперимента является отличным способом, позволяющим значительно сократить количество расчетов (в нашем случае – кол-во запусков модели), а также, что тоже немаловажно количество необходимых входных данных.

Не вдаваясь особо в детали и выражаясь простым языком, скажу, что суть метода заключается в следующем (тут мы перейдем на понятный для нефтяников язык, с примерами) – для каждого из неопределенных параметров (таких как, например – пористость, NTG, водонасыщенность, проницаемость, уровень ВНК, концевые точки фазовых проницаемостей, и пр.) задаются возможные границы от минимума до максимума. Различные комбинации, которых дают определенное значение выходной функции – STOIIP, извлекаемые запасы, и т.д. Также стоит отметить, что границы минимумов и максимумов по возможности нужно задать шире, чтобы покрыть весь диапазон возможных значений. Чтобы был покрыт интервал со значениями вероятностей от близких к 0 до близких к 100%. Т.е. другими словами нужно сгененировать дополнительно к среднему, еще два детерминистических варианта Low-Low и High-High.

В таблице плана эксперимента минимальное значение параметра представлено, как (-1), а максимальное (+1), 0 – соответственно представляет собой середину.

Если пропустить тот факт, что при планировании эксперимента в зависимости от решаемых задач применяются различные способы построения таблицы планов для наших нефтяных задач очень хорошо подходит метод Plackett-Burman (PB). Почитать о нем можно, к примеру тут: http://www.itl.nist.gov/div898/handbook/pri/section3/pri335.htm. В этом плане для оценки N факторов используется всего N+1 запусков.

Первая строка матрицы плана задается в виде (пример для m=11): ++-+++---+-. Затем каждая следующая строчка матрицы образуется из предыдущей циклическим сдвигом вправо. Последняя строка (m+1) состоит из (-1). Как правило, к этому плану добавляются еще две строчки с +1 и центральная точка – 0, которая также используется для проверки адекватности прокси.

Но также следует отметить, что в чистом виде Plackett-Burman, как правило используется лишь для первоначальной оценки при проведении эксперимента, чтобы выявить наиболее важные параметры и отсеять параметры незначительным образом влияющие на конечный результат.

Однако, если в качестве плана использовать, так называемый зеркальный план (Folded Plackett-Burman), с добавлением центрального элемента (строчки с нулями), то результат с достаточно высокой достоверностью может быть представлен аппроксимирующей функцией в виде полигона второй степени с взаимодействующими компонентами (проще формулой написать чем словами выразить). Ну и разумеется нужно будет выполнить в 2 раза больше расчетов:

    \[y=a_0+\sum_{i=1}^{m}a_{i}x_{i}+\sum_{j>i}^{m}a_{ij}x_{i}x_{j}+\sum_{j=1}^{m}a_{jj}x_{j}^{2}\]

Этим уравнением хорошо аппроксимируются функции следующего вида:

DOE_Parabola

В примере с нашей скважиной, я выбрал следующие неопределенные параметры:

  • Поровый объем (по сути объединение пористости, NTG, толщины)
  • Проницаемость
  • kv/Kh
  • Проницаемость вдоль разломов
  • Критическая водонасыщенность (наличие эффекта пропитки)
  • Остаточная нефтенасыщенность
  • Наличие каналов прорыва воды от нагнетательных скважин (water short-circuits)
  • Успешность стимуляции скважины (насколько хорошо будет проведен кислотный ГРП).

Выходной параметр один – накопленная добыча скважины.

Для этого случая Folded Plackett-Burman план выглядит таким образом:

FoldedPB_20140128

Затем генерируем и запускаем на расчет 25 моделей, представляющие собой каждую из строк плана. Результаты расчетов заносим в таблицу. После запуска макроса выполняющего регрессию находим уравнение аппроксимирующее результаты полученные на модели. Сравниваем результаты полученные по модели и по прокси-функции и оцениваем качество аппроксимации.

Также после получения прокси-функции неплохо выполнить проверку репрезентативности модели, для этого нужно запусть несколько вариантов с центральными (0) и дробными значениями факторов и сравнить результаты предсказанные прокси-функцией и полученные на модели. Если расхождение допустимо, то смело можно использовать нашу функцию для дальнейшего вероятностного анализа методом Монте-Карло.

DOE_InitialProxyRegression

Зеленые точки это 25 вариантов, которые использовались для нахождения прокси-функции, а красные точки – это варианты модели, запущенные для проверки прокси-функции (наиболее влиятельные фаторы были взяты равным 0). Видно, что прокси несколько недооценивает запасы скважины для этих случаев.

Поэтому следующим шагом был запуск нахождения новой прокси-функции с использованием этих дополнительных точек. На следующей картинке видно, что результат улучшился. Дополнительная красная точка, это проверка модели для эксперимента с дробными значениями факторов.

DOE_ProxyRegression

Если посмотреть на диаграмму Парето, то видно, что в этом случае наиболее влиятельными оказались – объемы (геологические запасы), проницаемость, Kv/Kh, эффективность проведения стимуляции и примерно одинаковое влияние оказывают значения остаточной нефтенасыщенности и критической водонасыщенности (что в принципе было ожидаемо, т.к. они одинаковым образом масштабируют кривые фазовых проницаемостей). Наличие высокопроводимых каналов не оказывает существенного влияния на добычу нефти, хотя сильно влияет на обводненность. Ну и самый интересный параметр – высокая проводимость вдоль разломов, которая в некоторых местах подтверждена сейсмикой 4D, по данному графику не оказывает практически никакого влияния. Но на самом деле, получилось так, что слишком сильное увеличение проницаемости вдоль разломов, а также польное отсутствие увеличения проницаемости (проницаемость такая же как и в районах удаленных от разломов) оказывают негативное влияние на запасы. Т.е. хорошо иметь некоторое увеличение проводимости.

DOE_ParetoChart

Для найденной прокси-функции запускаем традиционное моделирование Монте-Карло. Для этого задаем распределения вероятностей наших факторов, зная каким значениям соответсвуют +1, 0 и -1 для каждого из факторов несложно подобрать границы. Также стоит сказать, что значения могут выходить за границы [-1,+1], но усугублять этим не стоит, т.к. во-первых при выборе минимальных/максимальных значений мы руководствовались правилом, чтобы эти значени соответствовали вероятностям близким к 0. А во-вторых экстраполяция хуже работает по сравнению с интерполяцией.

Вот что получилось в итоге:

DOE_Distribution

 

Ну и напоследок, необходимо вабрать варианты, которые будут представлять Р10, Р50 и Р90. Подставляя различные значения факторов в прокси-функцию, находим такие комбинации параметров, которые примерно дают значения соответствующие Р10, Р50 и Р90.

Еще несколько рекомендаций по выбору функций распределения. Как правило для оценки запасов чаще всего используются 4 распределения – треугольное, лог-нормальное, нормальное, равномерное. Треугольное чаще используется для пористости, NTG, Sw, RF, при этом очень часто используется скошенное (несимметричное) распределение. Нормальные распределения использются для отражения меньшей изменчиваости параметра относительно среднего и они всегда симметричны. Лог-нормальное часто используется в поиске при оценке общих объемов залежи (площадь, толщины), где нередки широкие диапазоны потенциальных значений (часто различающихся на порядки). Также если к примеру проанализировать размер всех месторождений в некотором отдельно выбранном бассейне, то они как правило имеют лог-нормальное распределение, что подтверждает праильность допущения об использовании лог-нормального распределения. Или другими словами, это означает, что найденное месторождение вероятнее окажется более мелким чем огромным. После открытия месторождения, как правило, лог-нормальное распределение заменяется треугольным. Хотя если разобраться, то большой разницы нет. Лог-нормальное и относительно узким диапазоном значений дает в итоге примерно такое же распределение, как и треугольное. Если мы вообще ничего не знаем о распределении, а также не имеем никакого представления о среднем значении параметра, но знаем лишь максимум и минимум, то нужно использовать равномерное распределение.

Share

Трюки Eclipse: UDQ/ACTIONX

Не знаю, как часто инженерам, работающим с моделями в Eclipse приходится использовать пользовательскими переменными (UDQ), а также событиями (ACTION*). Думаю, что не очень часто, но тем не менее, считаю, что некоторым информация, о которой я напишу ниже пригодится.

Итак, есть задачка: Смоделировать в Эклипс ситуацию, когда необходимо, чтобы в первые месяцы (годы) после начала закачки на нагнетательных скважинах, предварительно отработавших на нефть от полугода до полутора, забойное давление не превышало давление гидроразрыва. Дело в том, что во время отработки, в отсутствие закачки, достаточно сильно проседает пластовое давление и происходит переориентация стрессов. В нашем случае в период добычи нагнетательных скважин максимальный стресс начинал разворачиваться перепендикулярно к стволу горизонтальной скважины, что в случае гидроразрыва негативно сказывалось бы на эффективности заводнения. После начала закачки пластовое давление постепенно возрастает и стрессы снова начинают ориентироваться в нужном направлении. В тот момент, когда это произойдет эффективнее закачивать воду при давлении выше давления разрыва.

В общем эту ситуацию и нужно было замоделировать в Эклипс.

Что было сделано.

1. Добавляем грид с дополнительнымы регионами, окружающие нагнетательные скважины с некоторым радиусом, и назовем его скажем – FIPWEL. Это свойство понадобится для получения средних давлений в районе конкретной скважины. В принципе можно сделать проще с помощью WP9. Но нам надо было взять несколько большую зону чем 9 ячеек вокруг скважины. Ссылку на это свойство описываем в секции REGIONS. FIPWEL будет дополнительным регионом к стандартному FIPNUM.

2. В секции RUNSPECS ключевыми словами UDQDIMS и UDADIMS описываем сколько пользовательских переменных будет использовано в расчете.

-- USER DEFINED QUANTITIES DIMENSIONS
UDQDIMS
 -- MAXFUNC MAXITEMS MAXC MAXF MAXG MAXR MAXS MAXW MAXA MAXB
 16 16 0 1 1 1 0 5 0 1 /
UDADIMS
 3 /

3. Затем в секции SCHEDULE задаем эти самые переменные и события устанавливающие режим

UDQ
 DEFINE WUPR1 RPR__WEL 2 / -- пластовое давление в районе скважины
 UNITS WUPR1 PSIA /
 UPDATE WUPR1 ON /
 ASSIGN FUBOOL 0 / -- пока 0 не рвем пласт
 DEFINE WUMXP1 (WUPR1/14.5*0.725+162-69/4)*14.5 / -- расчет давления разрыва
 UNITS WUMXP1 PSIA /
 UPDATE WUMXP1 ON /
/
-----------------------
ACTIONX
 ACT1 10000 / 
 WUMXP1 'INJ1' <= 7000 AND / -- условие после которого можно рвать пласт
 FUBOOL = 0 /
 /
--CONVERT INJ1 INTO INJECTOR
WCONINJE
'INJ1' WATER OPEN RATE 10000 1* WUMXP1 1* / -- ограничение на максим. давление
/
ENDACTIO
-------------------------
ACTIONX
ACT2 1 /
WUMXP1 'INJ1' > 7000 / 
/
UDQ
ASSIGN FUBOOL 1 /
/
WCONINJE
'INJ1' WATER OPEN RATE 6000 1* 8000 1* / -- 
/
ENDACTIO

Ну в общем, как-то так. Часть формул я упростил, чтобы чересчур не загружать.

Share

“Хозяюшке” на заметку #1: Формулы расчета инклинометрии скважин

Решил начать рубрику “Хозяюшке инженеру на заметку” (точнее так, что если буду периодически добавлять материал, то будет рубрика, а так пока пост). Буду добавлять всевозможные полезные и не очень формулы, замечания или комментарии. С названием пока не определился, решу по ходу.

В общем, я заметил, что достаточно часто, особенно у молодых специалистов, возникаю проблемы с расчетами инклинометрии скважин. Несмотря на то, что загрузка инклинометрии и все расчеты связанные с этим реализованы во многих специализированных программных продуктах, зачастую возникает необходимость сделать быстрые прикидки и расчеты на коленке (в Excel), не прибегая к сторонним продуктам. В принципе ничего сложного там нет – пара формул по тригонометрии, но по неопытности можно много чего напутать.

Ниже приведены формулы, которыми мы в свое время в Самара-Нафте занесли в единый стандартизированный Excel-вский шаблон.

В качестве входных данных используется – глубина по стволу (MD), угол наклона (INCL) и азимут (AZIM). В расчете инклинометрии не забываем про магнитное склонение.

Расчетные данные на выходе: вертикальная глубина (TVD), отходы (DX, DY или East, North) и DLS – dogleg severity (интенсивность набора кривизны). DLS – в данном случае выражен, также как в Petrel в градусах на 30м (~100ft), заменив 30 на 10 получим значение в привычных для Российской практике градусах на 10 метров.

    \[ DLS\degree/30m = \frac{30}{\Delta MD}\frac{180}{\pi}\cos^{-1}[\cos(I_2-I_1)-\sin(I_1)\sin(I_2)(1-\cos(A_2-A_1))] \]

    \[\Delta Y=\Delta MD[\sin(I_1)\cos(A_1)+\sin(I_2)\cos(A_2)]/2\]

    \[\Delta X=\Delta MD[\sin(I_1)\sin(A_1)+\sin(I_2)\sin(A_2)]/2\]

    \[\Delta TVD=\Delta MD[\cos(I_1)+\cos(I_2)]/2\]

При использовании формул в Excel не забываем, что углы должны быть в радианах.

Ссылка на шаблон файла инклинометрии с примером: WellDeviation_v2

Share

Очередной “шедевр” про сланцевый газ

Да уж, какой только ахинеи в сети не встретишь про сланцевый газ. Очередной “шедевр”: http://lleo.me/dnevnik/2013/07/31_gas.html

Несколько цитат из статьи:

“Для добычи сверлится глубокая дыра (километра три), а когда пласт сланца достигнут, шахту поворачивают и дальше сверлят горизонтально — еще километра три”

Наконец делают гидроразрыв — в шахту закачивают воду с 1% соляной кислоты и реагентов для лучшего растворения породы, и затем (я до конца не понял, это все-таки взрыв или плавное нагнетание давления)

“Дело осложняется тем, что в таких глубинах температура достигает 150 градусов, давление 600 атмосфер (для сравнения: промышленный чугунный баллон высокого давления выдерживает 300 атмосфер). Ну а толщина сланцевого пласта может быть всего 5 метров, и выскочить за его пределы никак нельзя, поэтому бурить надо со сложным компьютерным мониторингом и моделированием. В общем, задача высокотехнологичная, на пределе инженерных мощностей. Неудивительно, что она была решена в той стране, где слова «интеллигенция» и «креативный класс» не являются ругательствами.”

В общем читайте, там такого еще много.

Share

Забурились…

Сегодня мы наконец-то приступили к бурению первой скважины из проекта доразработки нашего месторождения. Бурение началось почти на полгода позже запланированного срока (что не редкость для оффшорных проектов). Отпраздновали это поеданием пирога, назвали его – spud cake.
По всему офису развесили установку на бурение: “Sаfely and Efficiеntly Cоnduct Drilling Opеrations, Acquirе Dаta and Instаll Complеtions to Plаnnеd Dеpth Enаbling Zonеs to be Individuаlly Stimulаtеd”.

Ниже ссылка на видео-клип о том, как происходит бурение. В клипе та же самая буровая платформа Maersk Resolute бурит скважину на South Arne во время предыдущей кампании по бурению в 2010  (понятно, что в промо ролике Maersk название месторождения не фигурирует):

http://www.youtube.com/watch?v=Vi5EPleIOoQ

 

Share

JCR: Заводнение

Не так давно я съездил на очередной семинар объединенного консорциума по изучению мела (JCR – Joint Chalk Research). В прошлом году я также был на одной из встреч, которая посвящалась общим проблемам моделирования трещиноватых пластов (в основном разумеется речь шла о меле).

Думаю, что следует сказать несколько слов о JCR, чтобы стало понятнее о чем идет речь. JCR – это объединенный фонд, который был создан в 1980 году по инициативе Норвежских и Датских властей, к которому присоединились несколько нефтяных компаний, в активе которых имелись месторождения мела (chalk). Основная цель данного проекта (“консорциума”) – это объединение усилий в изучении данного типа коллектора. Если сравнивать с традиционными песчаником и карбонатами, то данных по мелу сравнительно немного, но в то же время проблем при разработке данного типа пород предостаточно. Очевидно, что объединив усилия и получив доступ к более широкому набору данных, полученных разными компаниями, можно добиться более эффективных результатов. Изначально власти (NPD и DEA) были инициаторами создания данного фонда, однако в настоящее время именно нефтяные компании в большей степени заинтересованы в продолжении развития данного проекта. В общем у проекта есть бюджет, для пополнения которого компании делают взносы и программа. В программе помимо совещаний и обсуждений также есть программа по всевозможным исследованиям. На каждой из встреч обсуждаются проблемы по теме(-ам) в выбранной(-ым) на предыдущей встрече. В этот раз это была встреча для инженеров (встречи часто чередуются по тематикам для геологов и инженеров), проходила она в офисе ConocoPhilips и была посвящена проблемам заводнения в меловых породах. Тема была задана достаточно обширной, от применимости заводнения в меле вообще, до особенностей и проблем моделирования заводнения в меле. Я также делал презентацию по нашему месторождению. Где мы решили сфокусироваться на анализе эффективности заводнения путем использования всевозможных аналитических методов, которые вместе с другими данными контроля за разработкой позволяют произвести оценку эффективности заводнения, а также улучшить качество модели месторождения.

В нашей презентации на этой встрече мы решили показать, каким образом простые аналитические методы наряду с данными PLT, трассерными исследованиями и данными 4D-сейсмики позволяют определить наличие высокопроницаемых каналов, по которым вода от нагнетательных скважин прорывается к добывающим (water short-circuits). Проведенный анализ также позволил доказать, что проводимость этих “каналов” имеет динамический характер и меняется в зависимости от режимов закачки в нагнетательных скважинах, т.е. происходит так назывемое раскрытие и закрытие трещин. Это очень явно можно увидеть, анализируя модифицированные графики Холла (Modified Hall Plots, SPE 109876). Рекомендую ознакомиться с методикой, описанной в этой статье. Анализ производительности нагнетательных скважин при использовании данного метода более нагляден по сравнению с классическим графиком Холла.

В теории при снижении или увеличении продуктивности нагнетательной скважины должны получаться картинки похожие на то что изображено внизу:

JCR_Flooding_MHP_1

Так вот, анализ графиков Hall-а на наших данных показывает, что практически на всех нагнетательных скважинах в зависимости от изменения режимов закачки происходит постоянное “открытие” и “закрытие” трещин. График Холла на картинке ниже для одной из нагнетательных скважин, прорыв воды в которой к одной из соседних добывающих скважин происходит по плохо зацементированному боковому стволу, показывает работоспособность метода (хотя это особенно и не подвергается сомнению). Из графиак видно, что первоначальные попытки изолировать воду закрытием SSD на нагнетательной скважине в проблемной зоне были безуспешны. Применение изоляционных работ с помощью “хитрого” цемента позволило решить проблему, хотя первая обработка была лишь частично успешной, т.к. после открытия всех зон, произошел прорыв воды. Позже после второй обработки проблему удалось решить на более продолжительный срок.

SA_X1_HallPlot

На следующих графиках показана “типичная” нагнетательная скважина, в которой попытки управлять заводнением производились с помощью SSD, правда надо признать, что в основном безуспешно (практически всегда для мела характерна проблема с изоляцией). Резкие изменения продуктивности проиходили только при смене режимом закачки, в результате чего проиходило открытие/закрытие трещин.

SA_X2_HallPlot

В общем в настоящее время при закачке воды пытаемся найти некий баланс в объемах закачиваемой воды. Большие объемы закачки зачастую приводят к большим прорывам воды по трещинам, что может уменьшить эффективность заводнения. Меньшие объемы наоборот, часто позволяют улучшить эффективность, но также приводят к снижению компенсации добычи, пластового давления и выделению газа.

Share