carga de datos grande en la fuerza de ventas

votos
0

Me encontré con limitación raro, quiero oír si alguien ha resuelto este problema.

Planteamiento del problema: los datos de carga de la fuerza de ventas desde el exterior. volumen de datos es de 1 millón de registro en una ráfaga, cada 3 hrs.

mi herramienta de orquestación fuente (NIFI) es capaz de hacer esto, muchos API REST, pero la fuerza de ventas ha pedido que no se utilice resto con este gran rendimiento. No estoy seguro de si es un límite de la fuerza de ventas de productos o equipo ha creado un techo artificial.

han sugerido el uso dataloader, que parece ser un cargador de lotes para la fuerza de ventas, pero no es tan rápido tampoco. También tiene temas diferentes. No puedo desencadeno dataloader, cuando llegue a los datos, por lo que no sea útil.

Mucho tiempo atrás me han utilizado Informatica para conectarse a la fuerza de ventas, y que se utiliza para pasar cantidad similar de los datos, y sin ningún problema. Alguien puede responder cómo conector Informatica ha resuelto este problema de cuello de botella? ¿Qué se usan debajo?

también cualquier otra forma de empujar esta cantidad de datos a la fuerza de ventas?

Publicado el 09/10/2019 a las 18:56
fuente por usuario
En otros idiomas...                            


1 respuestas

votos
0

Respuesta corta: reconsiderar su caso de uso. Vuelva a escribir su aplicación para utilizar diferentes mecanismos de conexión a SF.

Respuesta larga: API estándar de Salesforce (SOAP o REST, no importa) es sincrónico. Solicitud-respuesta, trabajo hecho. Está limitado a 200 registros como máximo en una llamada a la API. Sus volúmenes son más adecuados para la API a granel. Que uno es de sólo RESTO (aunque se puede aceptar XML, JSON o CSV), hasta 10K registros en una llamada a la API. La diferencia clave es que es asíncrona. (?? Cada 10 segundos cada minuto) de enviar el trabajo, volver Identificación del trabajo, se puede comprobar "¿se hace todavía si es -? Devuélveme mis resultados de éxito / fracaso". Pero cada una de estas comprobaciones, por supuesto, consumir 1 llamada a la API también. Mientras tanto, en SF recibido un montón de archivos comprimidos de usted y trabajará en descomprimir y procesar tan rápido como lo permitan los recursos.

Así que (ignorando la primera loginllamada) vamos a hablar de límites. En cajas de arena del límite de rodadura de 24 horas de llamadas a la API es de 5 millones de llamadas. Masivo. En la producción es 15K llamadas a la API + 1K por cada usuario licencia completa que tiene (nube de ventas, servicio en la nube) + se pueden comprar más capacidad ... O simplemente ir a Configuración -> Información de la empresa y comprobar su límite.

Digamos que usted tiene 5 usuarios así 20K llamadas / día en la producción. En 24 horas a la capacidad máxima podrás empujar inserciones 10K 20K * = 200M / actualizaciones. Bueno, un poco menos debido a las llamadas de inicio de sesión y la comprobación del estado y consultando el archivo de resultados, pero aún bastante bueno -. Si eso no es suficiente - tiene problemas más grandes;) El uso de API estándar dejaría ir 200 * 20K = meros registros 4M.

Apoyo SF dijo que use cargador de datos, porque en el DL es simplemente marcando una casilla de verificación para utilizar la API a granel. No te importa que el mecanismo de back-end es diferente. Incluso se puede guión cargador de datos para ejecutar desde la línea de comandos ( https://resources.docs.salesforce.com/216/latest/en-us/sfdc/pdf/salesforce_data_loader.pdf el capítulo 4). O si se trata de una aplicación Java - acaba de volver a utilizar el archivo JAR en la parte superior de la cual se construye DL interfaz de usuario.

Estos podrían ayudar también:

Respondida el 10/10/2019 a las 01:50
fuente por usuario

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more