Добро пожаловать в форум, Guest  >>   Войти | Регистрация | Поиск | Правила | В избранное | Подписаться
Все форумы / Oracle Новый топик    Ответить
 Поиск оптимального решения обмена через DB_link  [new]
ilyuha111
Member

Откуда:
Сообщений: 66
Добрый день
оттолкнулись с проблемой проседания производительности при обмене данными через DB_link

до недавнего времени было 1 центральный сервер(oralce 12 SE2) + 70 удаленных баз (oracle 11xe)
настроен обмен статистикой через DB_link сбор статистики каждый час
время обмена с 1 объектом примерно 2 минуты параллельно работало 20 потоков весь обмен занимал примерно 5-15 минут
на данный момент количество объектов увеличилось до 200
наблюдаются следующие проблемы
1 нагрузки на диск 100% и практически не уменьшается
2 зависают отчеты у пользователей в ЦО
3 подвивает поиск по первоисточникам (с 0-1 сек до 5-6 сек)

обмен происходить в процедуре примерно такого вида

+

TYPE type_salary_use IS TABLE OF t_salary_use%ROWTYPE;
bc_salary_use type_salary_use ;
--remote_partner_id -- код объекта
--change_id при каждом изменении записи значение этого поля прирастает
. . . . .
begin
. . . . .
vl_sql_str:=' select /*+ DRIVING_SITE(ih)*/ ' || chr(10) ||
'* ' || chr(10) ||
'from t_salary_use@'||vl_partner_dblink ||' ih ' || chr(10) ||
' where ih.change_id between '|| vl_commited_our_change_id ||' and '|| vl_change_id || chr(10) ||
'';
execute immediate vl_sql_str bulk collect into bc_salary_use;

if bc_salary_use.last >0 then
--удалим данные если они уже переданы
forall ihh in bc_salary_use.first .. bc_salary_use.last
delete from t_salary_use rdu where rdu.remote_partner_id = bc_salary_use(ihh).remote_partner_id and rdu.salary_use_id = bc_salary_use(ihh).salary_use_id;
--добавим данные
forall ihh in bc_salary_use.first .. bc_salary_use.last
insert into t_salary_use
values bc_salary_use(ihh);
end if;
commit;
. . . . . .
end



есть желание переписать обмен

1 нужно снизить нагрузку на диск
2 ускорить обмен с одним объектом

если кто сталкивался с подобными задачами подскажите направления которые реально использовали для обмена
и какие технологии использовали на практике
13 авг 19, 13:01    [21948004]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
feagor
Member

Откуда: Москва
Сообщений: 218
ilyuha111,

Смотрите AWR отчёт - анализируйте имеющиеся ожидания, вытаскивайте топ запросы, анализируйте их планы на обоих базах.
13 авг 19, 15:35    [21948249]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
Vadim Lejnin
Member

Откуда:
Сообщений: 6809
feagor
ilyuha111,

Смотрите AWR отчёт - анализируйте имеющиеся ожидания, вытаскивайте топ запросы, анализируйте их планы на обоих базах.



на XE тоже?

и да, diagnostic pack может быть не купден, или у ТС вообще Standard Edition

В случае отсутствия лицензии, заводите и получайте отчеты statspack
13 авг 19, 15:59    [21948273]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
ilyuha111
Member

Откуда:
Сообщений: 66
feagor,

Запросы уже проверены
проблема упереться в диск
одна точка без нагрузки 1-2 минуты
одна точка с нагрузкой 2-4 минуты
20 потоков все объекты 25-45 минут
проблема что в момент обмена невозможно работать другим пользователям

первая версия отчетов состояла из подобных запросов как то работало
+

insert into t_salary_use
select ih.*
from t_salary_use@dblink ih
where ih.change_id between vl_commited_our_change_id and vl_change_id

потом переписали на foall стало лучше
возможно есть еще какие то технологии для решения этой задачи про которые я не знаю
и еще нужно вписаться в стандарт SE и XE
13 авг 19, 16:45    [21948346]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
SQL*Plus
Member

Откуда: Россия, Москва
Сообщений: 7886
ilyuha111
до недавнего времени было 1 центральный сервер(oralce 12 SE2) + 70 удаленных баз (oracle 11xe)
настроен обмен статистикой через DB_link сбор статистики каждый час

Обмен данными односторонний - данные из периферийных баз передаются в центральную. Правильно?

Сколько строк и мегабайт передается в среднем за один раз от одного периферийного сервера?

Нет ли в центральной базе проблем с памятью для bulk collect into bc_salary_use?
13 авг 19, 16:48    [21948352]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
Vadim Lejnin
Member

Откуда:
Сообщений: 6809
ilyuha111,

насколько далеко XE?
ping какой между узлами
какой канал?

p.s. statspack собери
Будет видно кто виноват

и да, какая ОС? какие диски, какая память, какие параметры oracle

может у тебя swapping дикий, увеличилось количество сессий и ...
13 авг 19, 17:05    [21948383]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
feagor
Member

Откуда: Москва
Сообщений: 218
ilyuha111
feagor,

проблема что в момент обмена невозможно работать другим пользователям

1. AWR/Statspack анализируйте на предмет происходящих в базе событий и запросов. выложите, глянем, может подскажем.
2. как правильно сообщили коллеги - выложите инфу по серваку.
3. Проанализируйте еще раз запросы из топов AWR/Statspack, проблемой могут оказаться совершенно левые запросы(какие-нибудь злобные отчеты пользователей)
13 авг 19, 17:24    [21948417]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
DВА
Member

Откуда:
Сообщений: 5416
Что-нить про события ожидания, трассировку и планы запросов слышали ?
13 авг 19, 19:30    [21948531]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
ilyuha111
Member

Откуда:
Сообщений: 66
AWR/Statspack выложу чуть позже если он там доступен
база на серваке лежит на двух m2 дисках
Samsung 960 PRO 1Tb тут буза и вся статистика и установлен oracle
SSD диск Samsung 970 EVO Plus MZ-V7S500BW тут всякие мат.вюхи для olap отчетов обновление по ночам

объемы обмена незначительные от 4 до 12 MB
по записям самое тяжелое
приход 2 таблицы мастер детаил
масте 30-60 записей
детаил 200-800 записей
расход 2 таблицы мастер детаил
масте 200-4000 записей
детаил 200-10 000 записей
90% полей number 10% varchar2


передача статистик за день 0,5-2 минуты
передача статистик за месяц 7-8 минут
это если 1 поток
с интернетом проблемы бывают но единичные

возможно нужно поменять какой либо параметр но я не знаю какой и вряд ли без подсказок его найду


проводили тест на выходных
1 перегрузили сервак
2 пытались выполнять простые запросы и поиск по станичникам все норм
3 запустили 4 потока повторили пункт 2 все норм
5 запустили 8 потока повторили пункт 2 начались проседания но незначительные
6 запустили 22 потока повторили пункт 2 начались проседания 20 минут сервак тупил потом все нормализовалось

диск уперся во 100% и черед к нему от 8000 до 17000
процессор 15% и выше не поднимался
оперативка 72GB
os Windows server 12

SELECT a.name, a.value FROM v$parameter a
ORDER BY a.name
+

NAMEVALUE
DBFIPS_140FALSE
O7_DICTIONARY_ACCESSIBILITYFALSE
active_instance_count
allow_global_dblinksFALSE
allow_group_access_to_sgaFALSE
approx_for_aggregationFALSE
approx_for_count_distinctFALSE
approx_for_percentilenone
aq_tm_processes1
archive_lag_target0
asm_diskgroups
asm_diskstring
asm_io_processes20
asm_power_limit1
asm_preferred_read_failure_groups
audit_file_destE:\APP\ADMIN\XE\ADUMP
audit_sys_operationsTRUE
audit_trailDB
autotask_max_active_pdbs2
awr_pdb_autoflush_enabledFALSE
awr_snapshot_time_offset0
background_core_dumppartial
background_dump_destE:\APP\PRODUCT\12.2.0\DBHOME_1\RDBMS\TRACE
backup_tape_io_slavesFALSE
bitmap_merge_area_size1048576
blank_trimmingFALSE
buffer_pool_keep
buffer_pool_recycle
cdb_clusterFALSE
cdb_cluster_namexe
cell_offload_compactionADAPTIVE
cell_offload_decryptionTRUE
cell_offload_parameters
cell_offload_plan_displayAUTO
cell_offload_processingTRUE
cell_offloadgroup_name
circuits
client_result_cache_lag3000
client_result_cache_size0
clonedbFALSE
clonedb_dir
cluster_databaseFALSE
cluster_database_instances1
cluster_interconnects
commit_logging
commit_point_strength1
commit_wait
commit_write
common_user_prefixC##
compatible12.2.0
connection_brokers((TYPE=DEDICATED)(BROKERS=1)) ((TYPE=EMON)(BROKERS=1))
containers_parallel_degree65535
control_file_record_keep_time7
control_filesE:\APP\ORADATA\XE\CONTROL01.CTL E:\APP\ORADATA\XE\CONTROL02.CTL
control_management_pack_accessNONE
core_dump_deste:\app\diag\rdbms\xe\xe\cdump
cpu_count32
create_bitmap_area_size8388608
create_stored_outlines
cursor_bind_capture_destinationmemory+disk
cursor_invalidationIMMEDIATE
cursor_sharingEXACT
cursor_space_for_timeFALSE
data_guard_sync_latency0
data_transfer_cache_size0
db_16k_cache_size0
db_2k_cache_size0
db_32k_cache_size0
db_4k_cache_size0
db_8k_cache_size0
db_big_table_cache_percent_target0
db_block_buffers0
db_block_checkingFALSE
db_block_checksumTYPICAL
db_block_size8192
db_cache_adviceON
db_cache_size0
db_create_file_dest
db_create_online_log_dest_1
db_create_online_log_dest_2
db_create_online_log_dest_3
db_create_online_log_dest_4
db_create_online_log_dest_5
db_domain
db_file_multiblock_read_count128
db_file_name_convert
db_files200
db_flash_cache_file
db_flash_cache_size0
db_flashback_retention_target1440
db_index_compression_inheritanceNONE
db_keep_cache_size0
db_lost_write_protectNONE
db_namexe
db_performance_profile
db_recovery_file_dest
db_recovery_file_dest_size0
db_recycle_cache_size0
db_securefilePREFERRED
db_ultra_safeOFF
db_unique_namexe
db_unrecoverable_scn_trackingTRUE
db_writer_processes4
dbwr_io_slaves0
ddl_lock_timeout0
default_sharingmetadata
deferred_segment_creationTRUE
dg_broker_config_file1E:\APP\PRODUCT\12.2.0\DBHOME_1\DATABASE\DR1XE.DAT
dg_broker_config_file2E:\APP\PRODUCT\12.2.0\DBHOME_1\DATABASE\DR2XE.DAT
dg_broker_startFALSE
diagnostic_destE:\APP
disable_pdb_feature0
disk_asynch_ioTRUE
dispatchers(PROTOCOL=TCP) (SERVICE=xeXDB)
distributed_lock_timeout60
dml_locks17036
dnfs_batch_size4096
dst_upgrade_insert_convTRUE
enable_automatic_maintenance_pdbTRUE
enable_ddl_loggingFALSE
enable_dnfs_dispatcherFALSE
enable_goldengate_replicationFALSE
enable_pluggable_databaseFALSE
enabled_PDBs_on_standby*
encrypt_new_tablespacesCLOUD_ONLY
event
exafusion_enabled1
external_keystore_credential_location
fal_client
fal_server
fast_start_io_target0
fast_start_mttr_target0
fast_start_parallel_rollbackLOW
file_mappingFALSE
fileio_network_adapters
filesystemio_options
fixed_date
gcs_server_processes0
global_namesFALSE
global_txn_processes1
hash_area_size1048576
heat_mapOFF
hi_shared_memory_address0
hs_autoregisterTRUE
ifile
inmemory_adg_enabledTRUE
inmemory_clause_default
inmemory_expressions_usageENABLE
inmemory_forceDEFAULT
inmemory_max_populate_servers0
inmemory_queryENABLE
inmemory_size0
inmemory_trickle_repopulate_servers_percent1
inmemory_virtual_columnsMANUAL
instance_abort_delay_time0
instance_groups
instance_modeREAD-WRITE
instance_namexe
instance_number0
instance_typeRDBMS
instant_restoreFALSE
java_jit_enabledTRUE
java_max_sessionspace_size0
java_pool_size0
java_restrictnone
java_soft_sessionspace_limit0
job_queue_processes4000
large_pool_size0
ldap_directory_accessNONE
ldap_directory_sysauthno
license_max_sessions0
license_max_users0
license_sessions_warning0
listener_networks
local_listenerLISTENER_XE
lock_name_space
lock_sgaFALSE
log_archive_config
log_archive_dest
log_archive_dest_1
log_archive_dest_10
log_archive_dest_11
log_archive_dest_12
log_archive_dest_13
log_archive_dest_14
log_archive_dest_15
log_archive_dest_16
log_archive_dest_17
log_archive_dest_18
log_archive_dest_19
log_archive_dest_2
log_archive_dest_20
log_archive_dest_21
log_archive_dest_22
log_archive_dest_23
log_archive_dest_24
log_archive_dest_25
log_archive_dest_26
log_archive_dest_27
log_archive_dest_28
log_archive_dest_29
log_archive_dest_3
log_archive_dest_30
log_archive_dest_31
log_archive_dest_4
log_archive_dest_5
log_archive_dest_6
log_archive_dest_7
log_archive_dest_8
log_archive_dest_9
log_archive_dest_state_1enable
log_archive_dest_state_10enable
log_archive_dest_state_11enable
log_archive_dest_state_12enable
log_archive_dest_state_13enable
log_archive_dest_state_14enable
log_archive_dest_state_15enable
log_archive_dest_state_16enable
log_archive_dest_state_17enable
log_archive_dest_state_18enable
log_archive_dest_state_19enable
log_archive_dest_state_2enable
log_archive_dest_state_20enable
log_archive_dest_state_21enable
log_archive_dest_state_22enable
log_archive_dest_state_23enable
log_archive_dest_state_24enable
log_archive_dest_state_25enable
log_archive_dest_state_26enable
log_archive_dest_state_27enable
log_archive_dest_state_28enable
log_archive_dest_state_29enable
log_archive_dest_state_3enable
log_archive_dest_state_30enable
log_archive_dest_state_31enable
log_archive_dest_state_4enable
log_archive_dest_state_5enable
log_archive_dest_state_6enable
log_archive_dest_state_7enable
log_archive_dest_state_8enable
log_archive_dest_state_9enable
log_archive_duplex_dest
log_archive_formatARC%S_%R.%T
log_archive_max_processes4
log_archive_min_succeed_dest1
log_archive_startFALSE
log_archive_trace0
log_buffer231112704
log_checkpoint_interval0
log_checkpoint_timeout1800
log_checkpoints_to_alertFALSE
log_file_name_convert
long_module_actionTRUE
max_datapump_jobs_per_pdb100
max_dispatchers
max_dump_file_sizeunlimited
max_idle_time0
max_iops0
max_mbps0
max_pdbs4098
max_shared_servers
max_string_sizeSTANDARD
memory_max_target79456894976
memory_target79456894976
nls_calendarGREGORIAN
nls_compBINARY
nls_currency$
nls_date_formatDD-MON-RR
nls_date_languageAMERICAN
nls_dual_currency$
nls_iso_currencyAMERICA
nls_languageAMERICAN
nls_length_semanticsBYTE
nls_nchar_conv_excpFALSE
nls_numeric_characters.
nls_sortBINARY
nls_territoryAMERICA
nls_time_formatHH.MI.SSXFF AM
nls_time_tz_formatHH.MI.SSXFF AM TZR
nls_timestamp_formatDD-MON-RR HH.MI.SSXFF AM
nls_timestamp_tz_formatDD-MON-RR HH.MI.SSXFF AM TZR
noncdb_compatibleFALSE
object_cache_max_size_percent10
object_cache_optimal_size10240000
ofs_threads4
olap_page_pool_size0
one_step_plugin_for_pdb_with_tdeFALSE
open_cursors300
open_links4
open_links_per_instance4
optimizer_adaptive_plansTRUE
optimizer_adaptive_reporting_onlyFALSE
optimizer_adaptive_statisticsFALSE
optimizer_capture_sql_plan_baselinesFALSE
optimizer_dynamic_sampling2
optimizer_features_enable12.2.0.1
optimizer_index_caching0
optimizer_index_cost_adj100
optimizer_inmemory_awareTRUE
optimizer_modeALL_ROWS
optimizer_secure_view_mergingTRUE
optimizer_use_invisible_indexesFALSE
optimizer_use_pending_statisticsFALSE
optimizer_use_sql_plan_baselinesTRUE
os_authent_prefixOPS$
os_rolesFALSE
outbound_dblink_protocolsALL
parallel_adaptive_multi_userFALSE
parallel_degree_limitCPU
parallel_degree_policyMANUAL
parallel_execution_message_size16384
parallel_force_localFALSE
parallel_instance_group
parallel_max_servers0
parallel_min_percent0
parallel_min_servers0
parallel_min_time_thresholdAUTO
parallel_servers_target512
parallel_threads_per_cpu2
pdb_file_name_convert
pdb_lockdown
pdb_os_credential
permit_92_wrap_formatTRUE
pga_aggregate_limit79456894976
pga_aggregate_target10297016320
plscope_settingsidentifiers:none
plsql_ccflags
plsql_code_typeINTERPRETED
plsql_debugFALSE
plsql_optimize_level2
plsql_v2_compatibilityFALSE
plsql_warningsDISABLE:ALL
pre_page_sgaTRUE
processes2560
processor_group_name
query_rewrite_enabledTRUE
query_rewrite_integrityenforced
rdbms_server_dn
read_only_open_delayedFALSE
recovery_parallelism0
recyclebinon
redo_transport_user
remote_dependencies_modeTIMESTAMP
remote_listener
remote_login_passwordfileEXCLUSIVE
remote_os_authentFALSE
remote_os_rolesFALSE
remote_recovery_file_dest
replication_dependency_trackingTRUE
resource_limitTRUE
resource_manage_goldengateFALSE
resource_manager_cpu_allocation32
resource_manager_planDEFAULT_PLAN
result_cache_max_result5
result_cache_max_size0
result_cache_modeMANUAL
result_cache_remote_expiration0
resumable_timeout0
rollback_segments
sec_case_sensitive_logonTRUE
sec_max_failed_login_attempts3
sec_protocol_error_further_action(DROP3)
sec_protocol_error_trace_actionTRACE
sec_return_server_release_bannerFALSE
serial_reusedisable
service_namesxe
session_cached_cursors50
session_max_open_files10
sessions3872
sga_max_size79456894976
sga_min_size0
sga_target64424509440
shadow_core_dumpnone
shared_memory_address0
shared_pool_reserved_size335544320
shared_pool_size0
shared_server_sessions
shared_servers1
shrd_dupl_table_refresh_rate60
skip_unusable_indexesTRUE
smtp_out_server
sort_area_retained_size0
sort_area_size524288
spatial_vector_accelerationFALSE
spfileE:\APP\PRODUCT\12.2.0\DBHOME_1\DATABASE\SPFILEXE.ORA
sql92_securityTRUE
sql_traceFALSE
sqltune_categoryDEFAULT
standby_archive_dest?#\RDBMS
standby_db_preserve_statesNONE
standby_file_managementMANUAL
star_transformation_enabledFALSE
statistics_levelTYPICAL
streams_pool_size0
tape_asynch_ioTRUE
target_pdbs0
temp_undo_enabledFALSE
thread0
threaded_executionFALSE
timed_os_statistics0
timed_statisticsTRUE
trace_enabledTRUE
tracefile_identifier
transactions4259
transactions_per_rollback_segment5
undo_managementAUTO
undo_retention900
undo_tablespaceUNDOTBS1
unified_audit_sga_queue_size1048576
uniform_log_timestamp_formatTRUE
use_dedicated_brokerFALSE
use_large_pagesTRUE
user_dump_destE:\APP\PRODUCT\12.2.0\DBHOME_1\RDBMS\TRACE
utl_file_dir
workarea_size_policyAUTO
xml_db_eventsenable



план запроса планые примерно все такие и запросы простые full scan может выстрелить на новых объектах где базы еще маленькие
+

select ih.*
from t_salary_use@dblink ih
where ih.change_id between :vl_commited_our_change_id and :vl_change_id


Plan Hash Value :

----------------------------------------------------------------------------------------------
| Id | Operation | Name | Rows | Bytes | Cost | Time |
----------------------------------------------------------------------------------------------
| 0 | SELECT STATEMENT REMOTE | | 333 | 13653 | 122 | |
| 1 | FILTER | | | | | |
| 2 | TABLE ACCESS BY INDEX ROWID | T_SALARY_USE | 333 | 13653 | 122 | |
| 3 | INDEX RANGE SCAN | IX_SALARY_USE_CHANGE_ID | 600 | | 3 | |
----------------------------------------------------------------------------------------------

13 авг 19, 21:17    [21948596]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
master_yoda
Member

Откуда:
Сообщений: 89
ilyuha111
AWR/Statspack выложу чуть позже если он там доступен
база на серваке лежит на двух m2 дисках
Samsung 960 PRO 1Tb тут буза и вся статистика и установлен oracle
SSD диск Samsung 970 EVO Plus MZ-V7S500BW тут всякие мат.вюхи для olap отчетов обновление по ночам

Почему домашние диски под БД? oracle 12 SE2 в разы дороже.

ilyuha111
оперативка 72GB


Ораклу сказали использовать 74GB. Попробуйте уменьшите на ~30% и мониторьте swap.

ilyuha111
memory_max_target 79456894976
memory_target 79456894976
sga_max_size 79456894976
sga_target 64424509440
14 авг 19, 01:05    [21948737]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
rpovarov
Member

Откуда:
Сообщений: 68
SQL*Plus
Нет ли в центральной базе проблем с памятью для bulk collect into bc_salary_use?

Вот очень правильное замечание, bulk collect без limit - часовая бомба...

И в таблице t_salary_use наверняка какие-то индексы живут, которые приходится учитывать при каждом delete/insert?
14 авг 19, 12:14    [21949042]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
SQL*Plus
Member

Откуда: Россия, Москва
Сообщений: 7886
ilyuha111
есть желание переписать обмен

Если будете переписывать, не забудьте изучить вариант обмена:

Исходная БД --> SQL*Plus --> текстовый файл --> электронная почта --> текстовый файл --> SQL*Loader --> Целевая БД

Это может стать самым быстрым и надёжным вариантом.
14 авг 19, 18:18    [21949540]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
ZhV
Member

Откуда: СПб
Сообщений: 253
ilyuha111,

По вашим примерам
То что вы выгружаете из периферийных базах (ПБ) в центральную базу (ЦБ) трудно назвать "статистикой"
вы просто выгружаете все обновления по таблице(-ам)
Это более точно можно было бы назвать "интеграция-синхронизация" "филиалы-центр"

Если возможно все свести к действительно статистике, то есть получение
данных пригодных для заданного анализа, то можно было бы

1) на всех ПБ разместить однотипный пакет
который по заданной процедуре запускает расчет статистики прямо на ПБ
в некоторые однотипные таблицы хранения результатов расчетов
2) запуск процедуры можно делать либо по таймер-джобам на ПББ
либо из центра но тоже асинхронным джобом
    execute immediate 'begin MyPkg.BigProc@namelink(:a1,:a2..) ; end ;' Using parm1,parm2.. ;

3) на каждой ПБ должна быть какая-нибудь табличка с семафор-признаками
окончания текущего расчета

4)после того как семафоры отсигналят об окончании - собрать
из отчетных таблиц ПБ собственно статистику
14 авг 19, 18:58    [21949567]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
Elic
Member

Откуда: 1984. Выбраковка финно-угром продолжается. КЯЗ
Сообщений: 29302
SQL*Plus
Исходная БД --> SQL*Plus --> текстовый файл --> электронная почта --> текстовый файл --> SQL*Loader --> Целевая БД

Это может стать самым быстрым и надёжным вариантом.
Да, фельдъегерская доставка работает издревле.
15 авг 19, 07:33    [21949746]     Ответить | Цитировать Сообщить модератору
 Re: Поиск оптимального решения обмена через DB_link  [new]
ilyuha111
Member

Откуда:
Сообщений: 66
в общем сделали следующее
в системе поставили галочку "отключить очистку буфера кеша Windows для этого устройства"
не знаю как это могло повлиять но проблемы с очередью и 100% загрузкой диска уменьшились на порядок

К сообщению приложен файл. Размер - 115Kb
3 сен 19, 11:27    [21962327]     Ответить | Цитировать Сообщить модератору
Все форумы / Oracle Ответить