Esta es una traducción de la página de documentación original en español. Ayúdanos a mejorarla.

3 Actualización de la base de datos a claves primarias y tipos de datos de doble precisión

Descripción general

Desde Zabbix 6.0, las claves primarias se utilizan para todas las tablas en instalaciones nuevas. Desde Zabbix 5.0, se utilizan tipos de datos de doble precisión para todas las tablas en instalaciones nuevas.

Esta sección proporciona instrucciones para actualizar manualmente tablas en instalaciones existentes: tablas de historial a claves primarias y tablas de historial y tendencias a tipos de datos de doble precisión.

Las instrucciones están disponibles para:

Las instrucciones proporcionadas en esta página están diseñadas para usuarios avanzados. Tenga en cuenta que es posible que sea necesario ajustar estas instrucciones para su configuración específica.

Notas importantes

  • Asegúrese de hacer una copia de seguridad de la base de datos antes de la actualización.
  • Si la base de datos utiliza particiones, comuníquese con el administrador de la base de datos o con el equipo de soporte de Zabbix para obtener ayuda.
  • Se recomienda encarecidamente detener el servidor Zabbix durante la actualización. Sin embargo, si es absolutamente necesario, existe una manera de realizar una actualización mientras el servidor está en ejecución (solo para MySQL, MariaDB y PostgreSQL sin TimescaleDB).
  • Los archivos CSV se pueden eliminar después de una actualización exitosa a claves primarias y tipos de datos de doble precisión.
  • Opcionalmente, la interfaz de Zabbix se puede cambiar al modo de mantenimiento.
  • La actualización a claves primarias y tipos de datos de doble precisión se debe realizar después de actualizar el servidor Zabbix a 6.0.
  • En el proxy, las tablas de historial que no se utilizan se pueden actualizar ejecutando history_upgrade_prepare.sql.

MySQL

La exportación y la importación se deben realizar en tmux/screen para garantizar que la sesión no se interrumpa.

Ver también: Notas importantes

MySQL 8.0+ con mysqlsh

Este método se puede utilizar con un servidor Zabbix en ejecución, pero se recomienda detener el servidor durante la actualización. MySQL Shell (mysqlsh) debe estar instalado y poder conectarse a la base de datos.

  • Inicie sesión en la consola MySQL como root (recomendado) o como cualquier usuario con privilegios de FILE.

  • Inicie MySQL con la variable local_infile habilitada.

  • Cambie el nombre de las tablas antiguas y cree tablas nuevas ejecutando history_upgrade_prepare.sql.

mysql -uzabbix -p<password> zabbix < /usr/share/zabbix-sql-scripts/mysql/option-patches/history_upgrade_prepare.sql
  • Exportar e importar datos.

Conéctese mediante mysqlsh. Si utiliza una conexión de socket, es posible que sea necesario especificar la ruta.

sudo mysqlsh -uroot -S /run/mysqld/mysqld.sock --no-password -Dzabbix

Ejecute (CSVPATH se puede cambiar según sea necesario):

CSVPATH="/var/lib/mysql-files";
       
       util.exportTable("history_old", CSVPATH + "/history.csv", { dialect: "csv" });
       util.importTable(CSVPATH + "/history.csv", {"dialect": "csv", "table": "history" });
       
       util.exportTable("history_uint_old", CSVPATH + "/history_uint.csv", { dialect: "csv" });
       util.importTable(CSVPATH + "/history_uint.csv", {"dialect": "csv", "table": "history_uint" });
       
       util.exportTable("history_str_old", CSVPATH + "/history_str.csv", { dialect: "csv" });
       util.importTable(CSVPATH + "/history_str.csv", {"dialect": "csv", "table": "history_str" });
       
       util.exportTable("history_log_old", CSVPATH + "/history_log.csv", { dialect: "csv" });
       util.importTable(CSVPATH + "/history_log.csv", {"dialect": "csv", "table": "history_log" });
       
       util.exportTable("history_text_old", CSVPATH + "/history_text.csv", { dialect: "csv" });
       util.importTable(CSVPATH + "/history_text.csv", {"dialect": "csv", "table": "history_text" });

MariaDB/MySQL 8.0+ sin mysqlsh

Este método de actualización tarda más tiempo y debe usarse sólo si no es posible realizar una actualización con mysqlsh.

Actualización de tablas
  • Inicie sesión en la consola MySQL como root (recomendado) o cualquier usuario con privilegios de FILE.

  • Inicie MySQL con la variable local_infile habilitada.

  • Cambie el nombre de las tablas antiguas y cree tablas nuevas ejecutando history_upgrade_prepare.sql:

mysql -uzabbix -p<password> zabbix < /usr/share/zabbix-sql-scripts/mysql/option-patches/history_upgrade_prepare.sql
Migración con el servidor detenido

max_execution_time debe estar deshabilitado antes de migrar datos para evitar el tiempo de espera durante la migración.

SET @@max_execution_time=0;
       
       INSERT IGNORE INTO history SELECT * FROM history_old;
       INSERT IGNORE INTO history_uint SELECT * FROM history_uint_old;
       INSERT IGNORE INTO history_str SELECT * FROM history_str_old;
       INSERT IGNORE INTO history_log SELECT * FROM history_log_old;
       INSERT IGNORE INTO history_text SELECT * FROM history_text_old;

Siga las instrucciones posteriores a la migración para eliminar las tablas antiguas.

Migración con el servidor en ejecución

Compruebe qué rutas están habilitadas para la importación/exportación:

mysql> SELECT @@secure_file_priv;
       +-----------------------+
       | @@secure_file_priv |
       +-----------------------+
       | /var/lib/mysql-files/ |
       +-----------------------+

Si el valor secure_file_priv es una ruta a un directorio, se realizará la exportación/importación de los archivos en ese directorio. En este caso, edite las rutas a los archivos en las consultas en consecuencia o establezca el valor secure_file_priv en una cadena vacía durante el tiempo de actualización.

Si el valor secure_file_priv está vacío, exporte/importe se puede realizar desde cualquier lugar.

Si el valor de secure_file_priv es NULL, configúrelo en la ruta que contiene los datos de la tabla exportados ('/var/lib/mysql-files/' en el ejemplo anterior).

Para más información, ver Documentación de MySQL.

max_execution_time debe estar deshabilitado antes de exportar datos para evitar el tiempo de espera durante la exportación.

SET @@max_execution_time=0;
       
       SELECT * INTO OUTFILE '/var/lib/mysql-files/history.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_old;
       LOAD DATA INFILE '/var/lib/mysql-files/history.csv' IGNORE INTO TABLE history FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';
       
       SELECT * INTO OUTFILE '/var/lib/mysql-files/history_uint.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_uint_old;
       LOAD DATA INFILE '/var/lib/mysql-files/history_uint.csv' IGNORE INTO TABLE history_uint FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';
       
       SELECT * INTO OUTFILE '/var/lib/mysql-files/history_str.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_str_old;
       LOAD DATA INFILE '/var/lib/mysql-files/history_str.csv' IGNORE INTO TABLE history_str FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';
       
       SELECT * INTO OUTFILE '/var/lib/mysql-files/history_log.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_log_old;
       LOAD DATA INFILE '/var/lib/mysql-files/history_log.csv' IGNORE INTO TABLE history_log FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';
       
       SELECT * INTO OUTFILE '/var/lib/mysql-files/history_text.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_text_old;
       LOAD DATA INFILE '/var/lib/mysql-files/history_text.csv' IGNORE INTO TABLE history_text FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';

Siga las instrucciones posteriores a la migración para eliminar las tablas antiguas.

PostgreSQL

La exportación y la importación se deben realizar en tmux/screen para garantizar que la sesión no se interrumpa. Para instalaciones con TimescaleDB, omita esta sección y continúe con PostgreSQL + TimescaleDB.

Ver también: Notas importantes

Actualización de tablas

  • Cambiar el nombre de las tablas usando history_upgrade_prepare.sql:
sudo -u zabbix psql zabbix < /usr/share/zabbix-sql-scripts/postgresql/option-patches/history_upgrade_prepare.sql

Migración con servidor detenido

  • Exportar el historial actual, importarlo a la tabla temporal, luego inserte los datos en nuevas tablas ignorando los duplicados:
INSERT INTO history SELECT * FROM history_old ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       INSERT INTO history_uint SELECT * FROM history_uint_old ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       INSERT INTO history_str SELECT * FROM history_str_old ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       INSERT INTO history_log SELECT * FROM history_log_old ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       INSERT INTO history_text SELECT * FROM history_text_old ON CONFLICT (itemid,clock,ns) DO NOTHING;

Vea sugerencias para mejorar el rendimiento de INSERT: PostgreSQL: carga masiva de enormes cantidades de datos, Distancia del punto de control y cantidad de WAL.

Migración con el servidor en ejecución

  • Exportar el historial actual, importarlo a la tabla temporal, luego inserte los datos en nuevas tablas ignorando los duplicados:
\copy history_old TO '/tmp/history.csv' DELIMITER ',' CSV
       CREATE TEMP TABLE temp_history (
           itemid                   bigint                                    NOT NULL,
           clock                    integer         DEFAULT '0'               NOT NULL,
           value                    DOUBLE PRECISION DEFAULT '0.0000'          NOT NULL,
           ns                       integer         DEFAULT '0'               NOT NULL
       );
       \copy temp_history FROM '/tmp/history.csv' DELIMITER ',' CSV
       INSERT INTO history SELECT * FROM temp_history ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       \copy history_uint_old TO '/tmp/history_uint.csv' DELIMITER ',' CSV
       CREATE TEMP TABLE temp_history_uint (
           itemid                   bigint                                    NOT NULL,
           clock                    integer         DEFAULT '0'               NOT NULL,
           value                    numeric(20)     DEFAULT '0'               NOT NULL,
           ns                       integer         DEFAULT '0'               NOT NULL
       );
       \copy temp_history_uint FROM '/tmp/history_uint.csv' DELIMITER ',' CSV
       INSERT INTO history_uint SELECT * FROM temp_history_uint ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       \copy history_str_old TO '/tmp/history_str.csv' DELIMITER ',' CSV
       CREATE TEMP TABLE temp_history_str (
           itemid                   bigint                                    NOT NULL,
           clock                    integer         DEFAULT '0'               NOT NULL,
           value                    varchar(255)    DEFAULT ''                NOT NULL,
           ns                       integer         DEFAULT '0'               NOT NULL
       );
       \copy temp_history_str FROM '/tmp/history_str.csv' DELIMITER ',' CSV
       INSERT INTO history_str (itemid,clock,value,ns) SELECT * FROM temp_history_str ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       \copy history_log_old TO '/tmp/history_log.csv' DELIMITER ',' CSV
       CREATE TEMP TABLE temp_history_log (
           itemid                   bigint                                    NOT NULL,
           clock                    integer         DEFAULT '0'               NOT NULL,
           timestamp                integer         DEFAULT '0'               NOT NULL,
           source                   varchar(64)     DEFAULT ''                NOT NULL,
           severity                 integer         DEFAULT '0'               NOT NULL,
           value                    text            DEFAULT ''                NOT NULL,
           logeventid               integer         DEFAULT '0'               NOT NULL,
           ns                       integer         DEFAULT '0'               NOT NULL
       );
       \copy temp_history_log FROM '/tmp/history_log.csv' DELIMITER ',' CSV
       INSERT INTO history_log SELECT * FROM temp_history_log ON CONFLICT (itemid,clock,ns) DO NOTHING;
       
       \copy history_text_old TO '/tmp/history_text.csv' DELIMITER ',' CSV
       CREATE TEMP TABLE temp_history_text (
           itemid                   bigint                                    NOT NULL,
           clock                    integer         DEFAULT '0'               NOT NULL,
           value                    text            DEFAULT ''                NOT NULL,
           ns                       integer         DEFAULT '0'               NOT NULL
       );
       \copy temp_history_text FROM '/tmp/history_text.csv' DELIMITER ',' CSV
       INSERT INTO history_text SELECT * FROM temp_history_text ON CONFLICT (itemid,clock,ns) DO NOTHING;

PostgreSQL + TimescaleDB

La exportación y la importación se deben realizar en tmux/screen para garantizar que la sesión no se interrumpa. El servidor Zabbix debería estar inactivo durante la actualización.

Ver también: Notas importantes

  • Cambiar el nombre de las tablas usando history_upgrade_prepare.sql.
    • Si la compresión está habilitada (en la instalación predeterminada), ejecute el script desde /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression:

      cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_prepare.sql | sudo -u zabbix psql zabbix
    • Si la compresión está deshabilitada, ejecute el script desde /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression:

      cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_prepare.sql | sudo -u zabbix psql zabbix
  • Ejecute scripts de migración de hipertable de TimescaleDB (compatibles con las versiones TimescaleDB v2.x y v1.x) según la configuración de compresión:
    • Si la compresión está habilitada (en la instalación predeterminada), ejecute scripts desde /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression:

      cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_uint.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_log.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_str.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_text.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/with-compression/trends_upgrade.sql | sudo -u zabbix psql zabbix
    • Si la compresión está deshabilitada, ejecute scripts desde /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression:

      cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_uint.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_log.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_str.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_text.sql | sudo -u zabbix psql zabbix
             cat /usr/share/zabbix-sql-scripts/postgresql/timescaledb/option-patches/without-compression/trends_upgrade.sql | sudo -u zabbix psql zabbix

Consulte también: Consejos para mejorar el rendimiento de INSERT.

Oracle

El soporte para Oracle DB está obsoleto desde Zabbix 7.0.

La exportación y la importación se deben realizar en tmux/screen para garantizar que la sesión no se interrumpa. El servidor Zabbix debería estar inactivo durante la actualización.

Ver también: Notas importantes

Actualización de tablas

  • Instale Oracle Data Pump (disponible en el [paquete de herramientas de cliente instantáneo] (https://www.oracle.com/database/technologies/instant-client/linux-x86-64-downloads.html)).

Consulte la documentación de Oracle Data Pump para obtener sugerencias de rendimiento.

  • Cambiar el nombre de las tablas usando history_pk_prepare.sql.
cd /usr/share/zabbix/zabbix-sql-scripts/database/oracle
       sqlplus zabbix/password@oracle_host/service
       sqlplus> @history_pk_prepare.sql

Migración por lotes de tablas históricas

  • Preparar directorios para Data Pump.

Data Pump debe tener permisos de lectura y escritura en estos directorios.

Ejemplo:

mkdir -pv /export/history
       chown -R oracle:oracle /export
  • Cree un objeto de directorio y otorgue permisos de lectura y escritura para este objeto al usuario utilizado para la autenticación de Zabbix ('zabbix' en el ejemplo siguiente). En el rol sysdba, ejecute:
create directory history as '/export/history';
       grant read,write on directory history to zabbix;
  • Exportar tablas. Reemplace N con el número de hilos deseado.
expdp zabbix/password@oracle_host/service \
           DIRECTORY=history \
           TABLES=history_old,history_uint_old,history_str_old,history_log_old,history_text_old \
           PARALLEL=N
  • Importar tablas. Reemplace N con el número de hilos deseado.
impdp zabbix/password@oracle_host/service \
           DIRECTORY=history \
           TABLES=history_uint_old \
        REMAP_TABLE=history_old:history,history_uint_old:history_uint,history_str_old:history_str,history_log_old:history_log,history_text_old:history_text \
           data_options=SKIP_CONSTRAINT_ERRORS table_exists_action=APPEND  PARALLEL=N CONTENT=data_only

Migración individual de tablas de historial

  • Preparar directorios para Data Pump para cada tabla de historial. Data Pump debe tener permisos de lectura y escritura en estos directorios.

Ejemplo:

mkdir -pv /export/history /export/history_uint /export/history_str /export/history_log /export/history_text
       chown -R oracle:oracle /export
  • Cree un objeto de directorio y otorgue permisos de lectura y escritura para este objeto al usuario utilizado para la autenticación de Zabbix ('zabbix' en el ejemplo siguiente). En el rol sysdba, ejecute:
create directory history as '/export/history';
       grant read,write on directory history to zabbix;
       
       create directory history_uint as '/export/history_uint';
       grant read,write on directory history_uint to zabbix;
       
       create directory history_str as '/export/history_str';
       grant read,write on directory history_str to zabbix;
       
       create directory history_log as '/export/history_log';
       grant read,write on directory history_log to zabbix;
       
       create directory history_text as '/export/history_text';
       grant read,write on directory history_text to zabbix;
  • Exportar e importar cada tabla. Reemplace N con el número de hilos deseado.
expdp zabbix/password@oracle_host:1521/xe DIRECTORY=history TABLES=history_old PARALLEL=N
       
       impdp zabbix/password@oracle_host:1521/xe DIRECTORY=history TABLES=history_old REMAP_TABLE=history_old:history data_options=SKIP_CONSTRAINT_ERRORS table_exists_action=APPEND PARALLEL=N CONTENT=data_only
       
       expdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_uint TABLES=history_uint_old PARALLEL=N
       
       impdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_uint TABLES=history_uint_old REMAP_TABLE=history_uint_old:history_uint data_options=SKIP_CONSTRAINT_ERRORS table_exists_action=APPEND PARALLEL=N CONTENT=data_only
       
       expdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_str TABLES=history_str_old PARALLEL=N
       
       impdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_str TABLES=history_str_old REMAP_TABLE=history_str_old:history_str data_options=SKIP_CONSTRAINT_ERRORS table_exists_action=APPEND PARALLEL=N CONTENT=data_only
       
       expdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_log TABLES=history_log_old PARALLEL=N
       
       impdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_log TABLES=history_log_old REMAP_TABLE=history_log_old:history_log data_options=SKIP_CONSTRAINT_ERRORS table_exists_action=APPEND PARALLEL=N CONTENT=data_only
       
       expdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_text TABLES=history_text_old PARALLEL=N
       
       impdp zabbix/password@oracle_host:1521/xe DIRECTORY=history_text TABLES=history_text_old REMAP_TABLE=history_text_old:history_text data_options=SKIP_CONSTRAINT_ERRORS table_exists_action=APPEND PARALLEL=N CONTENT=data_only

Post-migración

Para todas las bases de datos, una vez completada la migración, haga lo siguiente:

  • Verificar que todo funcione como se esperaba.

  • Elimine tablas antiguas:

DROP TABLE history_old;
       DROP TABLE history_uint_old;
       DROP TABLE history_str_old;
       DROP TABLE history_log_old;
       DROP TABLE history_text_old;
  • Para TimescaleDB, elimine también la siguiente tabla antigua:
DROP TABLE trends_old;

Ver también