Hogar Audio Hacia el futuro: una rampa de acceso para la informática en memoria

Hacia el futuro: una rampa de acceso para la informática en memoria

Anonim

Por el personal de Techopedia, 25 de enero de 2017

Para llevar: El presentador Eric Kavanagh habla sobre la computación en memoria y SAP HANA con los invitados Dr. Robin Bloor, Dez Blanchfield y Bill Ellis de IDERA.

Actualmente no has iniciado sesión. Inicia sesión o regístrate para ver el video.

Eric Kavanagh: Muy bien, damas y caballeros. Hola y bienvenidos de nuevo. Son las cuatro de la tarde, hora del este, de un miércoles y los últimos dos años, lo que significa que es hora, una vez más, de Hot Technologies. Sí, de hecho, mi nombre es Eric Kavanagh, seré tu anfitrión para la conversación de hoy.

Y amigos, vamos a hablar sobre algunas cosas interesantes hoy. Vamos a sumergirnos en el mundo de la memoria, el título exacto es "Into the Future: An On-Ramp for In-Memory Computing". Está de moda en estos días, y con razón, sobre todo porque la memoria es mucho más rápida que confiar en discos giratorios. Sin embargo, el desafío es que tienes que reescribir una gran cantidad de software. Porque el software de hoy, la mayor parte, ha sido escrito con el disco en mente y eso realmente cambia la arquitectura de la aplicación. Si diseña la aplicación para esperar un disco giratorio, simplemente hace las cosas de manera diferente que si tuviera todo el poder de la tecnología en memoria.

Hay un lugar sobre el tuyo de verdad, contáctame en Twitter, @eric_kavanagh. Siempre trato de seguir y también retuitear cada vez que alguien me menciona.

Como dije, hoy estamos hablando de la memoria y específicamente de SAP HANA. La suya realmente pasó el último año conociendo muy bien a la comunidad de SAP, y debo decir que es un entorno fascinante. Felicitaciones a las personas que ejecutan esa operación y están en primera línea, porque SAP es una operación increíblemente buena. En lo que realmente son muy buenos es en hacer negocios. También son excelentes en tecnología, por supuesto, y realmente han invertido mucho en HANA. De hecho, puedo recordar, probablemente hace unos seis o siete años, que estábamos haciendo un trabajo para la Fuerza Aérea de los Estados Unidos, y conseguimos que alguien de SAP viniera y nos diera un vistazo temprano del mundo de HANA y lo planeado. Y por decir lo menos, la gente de los Laboratorios SAP había dedicado mucho tiempo y esfuerzo a comprender cómo construir esta arquitectura que es completamente diferente, una vez más, de los entornos tradicionales, porque lo tienes todo en la memoria. Entonces, están hablando de hacer tanto transaccional como analítico en los mismos datos en memoria, en lugar de la forma tradicional, que es extraerlo, ponerlo en un cubo, por ejemplo, analizarlo allí, versus transaccional, que sucede de una manera muy diferente.

Este es un espacio interesante y vamos a averiguar de otro proveedor, IDERA, un poco acerca de cómo funcionará todo eso, y de qué se trata la rampa, francamente. Entonces, tendremos noticias del Dr. Robin Bloor, nuestro propio analista jefe aquí en The Bloor Group; Dez Blanchfield, nuestro científico de datos y luego buen amigo Bill Ellis de IDERA. Entonces, con eso, voy a entregarle las llaves al Dr. Robin Bloor, quien se lo llevará.

Dr. Robin Bloor: Sí, como Eric decía, el momento en que SAP HANA nos informó por primera vez fue hace muchos años, ahora. Pero fue muy interesante, ese momento en particular fue muy interesante. Nos topamos con una o dos compañías que, de una forma u otra, ofrecían tecnología en memoria. Estaba bastante claro que iba a venir en memoria. Y realmente no fue hasta que SAP se puso de pie y de repente lanzó HANA. Quiero decir, fue una sorpresa cuando vi a SAP hacer eso. Fue, como, fue un shock porque esperaba que viniera de otra parte. Esperaba que fuera, ya sabes, Microsoft u Oracle o IBM o alguien así. La idea de que SAP lo estaba haciendo fue realmente sorprendente para mí. Supongo que no debería haber sido porque SAP es uno de los proveedores estratégicos y, ya sabes, todo lo importante que sucede en la industria proviene de uno de esos.

De todos modos, todo el punto sobre la memoria, quiero decir, nos dimos cuenta, solíamos hablar sobre eso, que tan pronto como entras en la memoria, no se trata de poner datos en la memoria, se trata de comprometerse con el idea de que la capa de memoria es el registro del sistema: tan pronto como migra el registro del sistema a la memoria, el disco comienza a convertirse en un medio de transferencia de un tipo y se convierte en algo diferente. Y pensé que era muy emocionante cuando eso comenzó a suceder. Entonces, realmente, se acabó el disco giratorio. El disco giratorio pronto existirá solo en los museos. No estoy seguro de qué tan pronto sea eso, pero básicamente, el disco de estado sólido ahora está en la curva de la ley de Moore, ya es diez veces más rápido que el óxido giratorio, como ahora lo llaman, y muy pronto será aún más rápido y entonces eso significa que los casos de uso para el disco son cada vez menos.

Y el hecho curioso, DBMS tradicional, en realidad, una gran cantidad de software tradicional fue construido para disco giratorio, asumió disco giratorio. Tenía todo tipo de capacidades de nivel físico que se programaron minuciosamente para explotar el disco giratorio, haciendo que la recuperación de datos sea lo más rápida posible. Y todo eso está siendo arrastrado. Solo desapareciendo, ¿sabes? Y luego, obviamente, hubo una muy, no sé, lucrativa, supongo, será al final, la apertura de una base de datos en memoria que intentó ocupar el lugar que las grandes bases de datos, Oracle y Microsoft, SQL Servidor y DB2 de IBM, ocupaba el espacio en memoria y fue muy interesante ver cómo avanzaban y lo hacían.

Hablemos de la cascada de memoria; Vale la pena mencionarlo. También es, la razón por la que mencioné esto, la razón por la que arrojé esto, en realidad, fue solo para que todos supieran, cuando estoy hablando de memoria aquí, todas estas capas de las que estoy hablando son en realidad memoria. Pero de repente te das cuenta cuando miras esto, esta es una tienda jerárquica, no es solo memoria. Y por lo tanto, casi todo lo que aprendimos hace mucho, mucho tiempo sobre la tienda jerárquica, también se aplica. Y también significa que cualquier base de datos en memoria tiene que navegar a través de esto, algunos simplemente caminan a través de la misma RAM, ya sabes. Y se ha vuelto cada vez más grande y más grande y ahora se mide en megabytes. Pero tienes caché L1 que es cien veces más rápido que la memoria, caché L2 30 veces más rápido que la memoria y caché L3 aproximadamente 10 veces más rápido que la memoria. Entonces, ya sabes, hay mucha tecnología, bueno, una buena cantidad de tecnología, ha adoptado la estrategia de usar esas cachés como, como tipo de espacio de almacenamiento, en el camino para ejecutar las cosas, particularmente la tecnología de bases de datos. Entonces, ya sabes, esa es una influencia.

Luego tenemos la aparición de 3D XPoint y el PCM de IBM. Y es casi velocidades de RAM, es básicamente lo que se jactan de estos dos proveedores. Los casos de uso son probablemente diferentes. La experimentación temprana con esto aún no se ha completado. No sabemos cómo va a afectar el uso de RAM y la tecnología de la base de datos en memoria para el caso. Entonces tienes RAM versus SSD. Actualmente la RAM es aproximadamente 300 veces más rápida, pero, por supuesto, ese múltiplo está disminuyendo. Y SSD versus disco, que es aproximadamente 10 veces más rápido, si lo entiendo. Entonces, ese es el tipo de situación que tienes. Es una tienda jerárquica. Mirándolo de otra manera, en la memoria, por supuesto, es completamente diferente. Por lo tanto, el diagrama superior muestra dos aplicaciones, ambas quizás accediendo a una base de datos, pero ciertamente accediendo a datos sobre la oxidación giratoria. Y la forma en que realmente hace que las cosas fluyan a través de la red, dependiendo de las dependencias, es que tiene ETL. Entonces, esto significa que, ya sabes, los datos van a la oxidación giratoria y luego se desprenden de la oxidación giratoria para ir a cualquier parte, y para llegar a cualquier parte vuelven a la oxidación giratoria, que son tres movimientos. Y tenga en cuenta que la memoria puede ser cien mil veces más rápida que el disco giratorio, y ciertamente se da cuenta de que tomar datos y guardarlos en la memoria hace que todo sea muy diferente.

Entonces, podría haber pensado que lo que sucedería estaría en lo que está en la pantalla aquí, podría haber pensado que, de una forma u otra, el ETL en realidad solo pasaría de datos a datos en la memoria. Pero en realidad no podría hacer eso; de hecho, es posible que tenga la situación a la derecha aquí donde dos aplicaciones pueden disparar la misma memoria. Ciertamente, una base de datos en memoria podría darle esa capacidad, siempre que tenga el bloqueo y todo lo demás orquestado a su alrededor. Por lo tanto, esto no solo altera la velocidad de las cosas, sino que también altera la forma en que configura las aplicaciones y los flujos de datos completos.

Entonces, es un gran tipo de impacto. Entonces, en la memoria es disruptivo, ¿verdad? Y deberíamos entender eso de lo que dije. El procesamiento en memoria actualmente es un acelerador, pero se convertirá en la norma. Se utilizará, se aplicará de acuerdo con el valor de la aplicación y, por lo tanto, es muy, muy interesante, que SAP realmente presente una versión de su software ERP que esté en la memoria. Y mejoras de latencia de hasta tres órdenes de magnitud completamente posibles, y en realidad incluso más de lo que es posible, dependiendo de cómo lo haga. Por lo tanto, está obteniendo grandes mejoras en la velocidad al ir en memoria. Y el resultado es que el S / 4 de SAP HANA, que han lanzado, creo que, bueno, la gente dice que todavía se está lanzando, pero ciertamente se lanzó el año pasado, es un cambio de juego dada la base de clientes de SAP. Quiero decir, hay 10, 000 compañías que usan el ERP de SAP y casi todas son grandes compañías, ya sabes. Entonces, la idea de que todos tengan un incentivo para ir a la memoria y usar su fundamental, porque ERP casi siempre es aplicaciones fundamentales que las empresas están ejecutando, es solo un gran cambio de juego y será muy interesante. Pero, por supuesto, todo eso suena muy bien, pero debe configurarse de manera inteligente y debe monitorearse bien. No es tan simple como parece.

Dicho esto, creo que le pasaré la pelota, ¿quién es este tipo? Oh, chico australiano, Dez Blanchfield.

Dez Blanchfield: Muy gracioso. Siempre es un acto difícil de seguir, Dr. Robin Bloor. Gracias por invitarme hoy. Entonces, gran tema, pero emocionante. Entonces, elegí una imagen que a menudo evoco cuando pienso en el lago de datos moderno y los almacenes de datos empresariales, y mis pequeñas gemas de datos. Así que aquí tengo este hermoso lago rodeado de montañas y olas que salen, y las olas rompen sobre estas rocas. Así es como visualizo mentalmente cómo se ve dentro de un gran lago de datos en estos días. Las olas son trabajos por lotes y los análisis en tiempo real se lanzan a los datos, que son las rocas. Y cuando lo considero un lago físico, me trae una llamada de atención que, ya sabes, la escala de los almacenes de datos que estamos construyendo ahora, la razón por la que se nos ocurrió esta moneda y el término de un lago de datos es que son muy grandes y muy profundos, y ocasionalmente puedes tener tormentas en ellos. Y cuando lo hacemos, siempre tienes que resolver lo que está creando la tormenta.

Entonces, en el tema de esto, para mí parece que esta llamada de sirena de la computación en memoria es realmente muy fuerte y por una buena razón. Produce muchas ganancias comerciales y técnicas significativas. Esa es una discusión por un par de horas en otro día. Pero el cambio general hacia la computación en memoria, en primer lugar, solo quiero cubrir cómo llegamos aquí y qué lo hace posible porque, de alguna manera, establece la base de dónde pueden estar algunos de los desafíos primero y lo que debemos tener en cuenta y en el pensamiento, en nuestro mundo de alejarnos del viejo disco giratorio tradicional que contiene datos y ser paginado dentro y fuera del disco y dentro de la memoria y fuera de la memoria y en las CPU, hasta ahora solo estamos eliminando casi una de esas capas completas, siendo el disco giratorio. Porque recuerde, en los primeros días de la informática, arquitectónicamente, no nos mudamos durante mucho tiempo desde el mainframe o el mundo de rango medio de lo que originalmente pensábamos como memoria central y almacenamiento de batería, ya sabes.

Como dijo el Dr. Robin Bloor, el enfoque que tomamos para mover datos alrededor de la arquitectura de la computadora realmente no cambió drásticamente durante algún tiempo, de hecho, durante un par de décadas. Si piensas en el hecho de que, ya sabes, la informática moderna, técnicamente, ha existido, si perdonas el juego de palabras, durante unos 60 años, ya sabes, seis décadas y más y es en el sentido de que puedes compre una caja del estante, por así decirlo. El cambio a la nueva arquitectura realmente surgió en mi mente cuando pasamos de pensar en mainframes y de rango medio, y las arquitecturas de memoria central y almacenamiento de batería, a los valientes o a la supercomputación, particularmente a Seymour Cray, donde cosas como backbarnes de barras cruzadas se convirtió en una cosa. En lugar de solo tener una ruta para mover datos a través del plano posterior o la placa base, como se llama en estos días. Y la memoria en línea, ya sabes, en estos días las personas realmente no piensan en lo que realmente significa cuando dicen DIMM y SIMM. Pero, SIMM es memoria en línea única y DIMM es memoria en línea dual y desde entonces tenemos más complejo que eso y hay docenas de diferentes tipos de memoria para diferentes cosas: algunos para video, algunos para aplicaciones generales, algunos integrados en CPU.

Entonces, hubo un gran cambio hacia una nueva forma de almacenar y acceder a los datos. Estamos a punto de pasar por ese mismo cambio en otra generación entera, pero no tanto en el hardware en sí, sino en la adopción del hardware en la lógica de negocios y en la capa de lógica de datos, y es otro gran cambio de paradigma en mi mente. .

Pero solo brevemente sobre cómo llegamos aquí. Quiero decir, la tecnología de hardware mejoró y mejoró dramáticamente. Pasamos de tener CPU y la idea de un núcleo era un concepto bastante moderno. Damos por sentado ahora que nuestros teléfonos tienen dos o cuatro núcleos y nuestras computadoras tienen dos o cuatro, o incluso ocho, en el escritorio y ocho y 12 y más, ya sabes, el 16 y el 32 incluso en la plataforma del servidor . Pero en realidad es algo bastante moderno que los núcleos se convirtieron en una capacidad dentro de las CPU y que pasamos de 32 bits a 64 bits. Allí sucedieron un par de cosas importantes: obtuvimos velocidades de reloj más altas en múltiples núcleos para poder hacer cosas en paralelo y cada uno de esos núcleos podría ejecutar múltiples subprocesos. De repente, pudimos ejecutar muchas cosas en los mismos datos al mismo tiempo. El espaciado de direcciones de sesenta y cuatro bits nos dio hasta dos terabytes de RAM, que es un concepto fenomenal, pero ahora es una cosa. Estas arquitecturas de plano posterior de rutas múltiples, ya sabes, placas base, una vez, solo podías hacer cosas en una dirección: hacia atrás y hacia adelante. Y al igual que en los días con la informática Cray y algunos de los diseños de supercomputadoras de esa época, y ahora en computadoras de escritorio y PC comunes de tipo rack de escritorio, porque realmente, la mayoría de las modernas Las PC ahora pasaron por esta era de mainframe, rango medio, micro escritorios y los volvimos a convertir en servidores.

Y gran parte de esa capacidad de supercomputadora, ese diseño de grado de supercomputadora, se introdujo en componentes comunes disponibles. Ya saben, en estos días, la idea de tomar PC muy baratas montadas en bastidor y ponerlas en bastidores por cientos, si no miles, y ejecutar software de código abierto en ellas como Linux e implementar productos como SAP HANA en él, usted Sabemos, a menudo damos eso por sentado. Pero eso es algo muy nuevo y emocionante y viene con sus complejidades.

El software también mejoró, particularmente la administración de memoria y el particionamiento de datos. No voy a entrar en muchos detalles sobre eso, pero si observa el gran cambio en los últimos 15 años más o menos, o incluso menos, cómo se gestiona la memoria, particularmente los datos en RAM y cómo los datos se dividen en RAM, de modo que, como el Dr. Robin Bloor indicó anteriormente o aludió, ya sabes, las cosas pueden leer y escribir al mismo tiempo sin afectarse entre sí, en lugar de tener tiempos de espera. Muchas características muy potentes como compresión y cifrado en chip. El cifrado se está convirtiendo en una cosa más importante y no tenemos que hacerlo necesariamente en el software, en la RAM, en el espacio de la CPU, ahora eso realmente ocurre en el chip de forma nativa. Eso acelera las cosas dramáticamente. Y el almacenamiento y procesamiento de datos distribuidos, nuevamente, cosas que una vez asumimos que eran supercomputadoras y procesamiento paralelo, ahora damos por sentado eso en el espacio de los gustos de SAP HANA y Hadoop y Spark, y así sucesivamente.

Entonces, el objetivo de esto es esta informática de alto rendimiento, las capacidades de HPC llegaron a la empresa y ahora la empresa está disfrutando de los beneficios que conlleva en ganancias de rendimiento y espacio tecnológico y beneficios técnicos y ganancias comerciales, porque, ya sabes, El tiempo reducido de valor se reduce drásticamente.

Pero uso esta imagen de una historia que leí hace un tiempo de un caballero que construyó una carcasa para PC con Lego, porque siempre me viene a la mente cuando pienso en algunas de estas cosas. Y eso es todo, parece una gran idea en el momento en que comienzas a construirlo, y luego llegas a la mitad y te das cuenta de que en realidad es realmente complicado juntar todos los pedazos de Lego y hacer algo sólido, lo suficientemente sólido poner una placa base y demás, eso construirá un caso para una computadora personal. Y eventualmente te das cuenta de que todos los pequeños pedazos no se pegan bien y tienes que tener un poco de cuidado con los pequeños pedazos que pegas para que sean sólidos. Y es una idea muy linda, pero es una llamada de atención cuando llegas a la mitad y te das cuenta, "Hmm, tal vez debería haber comprado una carcasa para PC de $ 300, pero la terminaré ahora y aprenderé algo de ella".

Para mí, esa es una gran analogía de cómo es construir estas plataformas muy complejas, porque está muy bien construirlo y terminar con un entorno en el que tienes enrutadores, conmutadores, servidores y bastidores. Y tienes CPU y RAM y sistema operativo agrupados. Y coloca algo como HANA encima para el procesamiento distribuido en memoria y el almacenamiento de datos y la gestión de datos. Además, construye la pila de SAP, obtiene las capacidades de la base de datos y luego carga sus datos y su lógica de negocios y comienza a aplicar algunas lecturas y escrituras y consultas, y así sucesivamente. Debe estar al tanto de las E / S y debe programar las cosas y administrar las cargas de trabajo y la multitenencia, etc. Esta pila se vuelve muy compleja, muy rápidamente. Esa es una pila compleja en sí misma si es solo en una máquina. Multiplique eso por 16 o 32 máquinas, se vuelve muy, muy no trivial. Cuando multiplica hasta cientos y eventualmente miles de máquinas, para pasar de 100 terabytes a escala de petabytes, es un concepto aterrador, y estas son las realidades con las que estamos lidiando ahora.

Entonces, terminas con un par de cosas que también han ayudado a cambiar este mundo, y es que el espacio en disco se volvió ridículamente barato. Sabes, alguna vez gastabas entre 380 y 400 mil dólares en un gigabyte de disco duro cuando era un tambor masivo del tamaño de algo, algo que necesitaba un montacargas para recogerlo. En la actualidad, se reduce a una o dos centavos por gigabyte de espacio en disco. Y RAM hizo lo mismo. Estas dos curvas J en ambos gráficos, por cierto, son una década cada una, por lo tanto, en otras palabras, estamos viendo dos bloques de 10 años, 20 años de reducción de precios. Pero los dividí en dos curvas en J porque finalmente la de la derecha se convirtió en una línea punteada y no se podían ver los detalles, así que volví a escalar. Un gigabyte de RAM hace 20 años era del orden de seis millones y medio de dólares. En estos días, si pagas más de tres o cuatro dólares por un gigabyte de RAM por hardware básico, te están robando.

Esta caída significativa de la reducción de los precios en las últimas dos décadas ha significado que ahora podemos movernos más allá del espacio en disco y directamente a la RAM, no solo en el nivel de megabytes, sino ahora en el nivel de terabytes y tratar la RAM como si fuera un disco. Sin embargo, el desafío con eso fue que la RAM era nativamente efímera, lo que significa algo que dura un corto período de tiempo, por lo que hemos tenido que encontrar formas de proporcionar resistencia en ese espacio.

Y entonces, mi punto aquí es que la computación en memoria no es para los débiles de corazón. Hacer malabarismos con estos datos en memoria a gran escala y el procesamiento a su alrededor es un desafío interesante; Como indiqué anteriormente, no es para los débiles de corazón. Entonces, una cosa que hemos aprendido de esta experiencia con la computación en memoria a gran escala y alta densidad es que la complejidad que desarrollamos genera riesgos en varias áreas.

Pero veámoslo desde un punto de vista de monitoreo y respuesta. Cuando pensamos en los datos, comienzan en el espacio del disco, se ubican en bases de datos en discos, los llevamos a la memoria. Una vez que está en la memoria y distribuido y hay copias de él, podemos usar muchas copias de él, y si se realizan cambios, se puede reflejar a nivel de memoria en lugar de tener que encender y apagar y cruzar el plano posterior en dos niveles diferentes, entra y sale de la memoria. Terminamos con esta plataforma de hardware hiperescala que nos permite hacer esto ahora. Cuando hablamos de hiperescalado, es más difícil a niveles ridículamente densos y memoria de muy alta densidad, recuentos de CPU, núcleos e hilos de muy alta densidad. Ahora tenemos patologías de red muy complejas para admitir esto porque los datos deben moverse a través de la red en algún momento si van a ir entre los nodos y los clústeres.

Por lo tanto, terminamos con la redundancia de fallas del dispositivo convirtiéndose en un problema y tenemos que monitorear los dispositivos y sus partes. Tenemos que tener redundancia de falla de datos resistente integrada en esa plataforma y monitorearla. Tenemos que tener integrada la resistencia de la base de datos distribuida, así que tenemos que monitorear la plataforma de la base de datos y apilarla. Tenemos que monitorear la programación del procesamiento distribuido, lo que sucede dentro de algunos de los procesos hasta el sondeo y la consulta y la ruta que toma la consulta y la forma en que la consulta se estructura y ejecuta. ¿Cómo se ve? ¿Alguien ha hecho un SELECT * en "bla" o ha hecho una consulta muy inteligente y bien estructurada que les va a dar la cantidad mínima y nominal de datos que atraviesa la arquitectura en el plano posterior? Tenemos cargas de trabajo multipropiedad, múltiples usuarios y múltiples grupos que ejecutan la misma o múltiples cargas de trabajo y trabajos por lotes y programación en tiempo real. Y tenemos esta combinación de procesamiento por lotes y en tiempo real. Algunas cosas simplemente se ejecutan regularmente (por hora, diariamente, semanalmente o mensualmente), otras están bajo demanda. Alguien podría estar sentado allí con una tableta que quiera hacer un informe en tiempo real.

Y nuevamente, llegamos a ese punto, que la complejidad que surge en estos no es solo un desafío ahora, es bastante aterrador. Y tenemos esta comprobación de la realidad de que un solo problema de rendimiento, solo un problema de rendimiento por derecho propio, puede afectar a todo el ecosistema. Y así, terminamos con este desafío muy divertido de descubrir, bueno, ¿dónde están los impactos? Y tenemos este desafío, ¿estamos siendo reactivos o proactivos? ¿Estamos observando la cosa en tiempo real y vemos que algo va "golpeando" y respondiendo? ¿O hemos visto alguna forma de tendencia y nos hemos dado cuenta de que necesitamos participar proactivamente? Porque la clave es que todos quieren algo rápido, barato y fácil. Pero terminamos con estos escenarios, a lo que me gusta referirme y mi línea favorita del enigma de Donald Rumsfeld, que en mi opinión se aplica en todos estos escenarios de alta complejidad, y eso es todo, hemos conocido conocimientos porque eso es algo diseñamos y construimos y funciona según lo planeado. Hemos conocido incógnitas en el sentido de que no sabemos quién ejecuta qué, cuándo y dónde, si es bajo demanda. Y tenemos incógnitas desconocidas y esas son las cosas que necesitamos monitorear y verificar. Porque la realidad es que todos sabemos que no se puede administrar algo que no se puede medir.

Por lo tanto, para tener las herramientas adecuadas y la capacidad adecuada para monitorear nuestra programación de CPU, busque los tiempos de espera, descubra por qué las cosas tienen que esperar en las colas programadas en las tuberías. ¿Qué está sucediendo en la memoria, qué tipo de utilización se está realizando, qué tipo de rendimiento estamos obteniendo de la memoria? ¿Se están dividiendo las cosas correctamente? ¿Se están distribuyendo? ¿Tenemos suficientes nodos que contengan copias para hacer frente a las cargas de trabajo que se le lanzan? ¿Qué sucede con la ejecución de procesos lejos de los procesos del sistema operativo? ¿Los trabajos en sí mismos, las aplicaciones individuales y los demonios que los respaldan? ¿Qué sucede dentro de esos procesos, particularmente la estructuración de consultas y cómo se ejecutan y compilan esas consultas? ¿Y la salud de esos procesos en la pila? Una vez más, de vuelta a los tiempos de espera, ¿está programando correctamente, tiene que esperar, dónde está esperando, está esperando lecturas de memoria, E / S, la CPU, E / S a través de la red para el usuario final? ?

Y luego volviendo a ese punto que acabo de mencionar justo antes de terminar y es eso, ¿cómo nos acercamos a la resolución de problemas y los tiempos de respuesta a esos? ¿Estamos observando en tiempo real y reaccionando a las cosas, que es el escenario menos ideal, pero aun así, es mejor hacerlo que no saber y que la mesa de ayuda llame y diga que algo salió mal y tenemos que rastrearlo? ? ¿O lo estamos haciendo de manera proactiva y estamos viendo lo que viene en el futuro? Entonces, en otras palabras, ¿estamos viendo que nos estamos quedando sin memoria y necesitamos agregar más nodos? ¿Estamos haciendo análisis de tendencias, estamos haciendo planificación de capacidad? Y en todo eso, ¿estamos monitoreando los tiempos de ejecución históricos y pensando en la planificación de la capacidad o lo estamos viendo en tiempo real y reprogramando y haciendo balanceo de carga de manera proactiva? ¿Y somos conscientes de las cargas de trabajo que se ejecutan en primer lugar? ¿Sabemos quién está haciendo qué en nuestro grupo y por qué?

Los cálculos en memoria son muy potentes, pero con ese poder es casi una de esas cosas, como un arma cargada y estás jugando con munición real. Eventualmente puedes dispararte en el pie si no tienes cuidado. Entonces, ese poder del cómputo en memoria solo significa que podemos ejecutar mucho más y rápidamente en conjuntos de datos discretos y muy distribuidos. Pero eso tiene una mayor demanda impulsada por los usuarios finales. Se acostumbran a ese poder y lo quieren. Ya no esperan que los trabajos tarden semanas en ejecutarse y que los informes aparezcan en papel normal. Y luego, debajo de todo eso, tenemos el mantenimiento diario rodeado de parches, actualizaciones y mejoras. Y si piensa en el procesamiento las 24 horas del día, los 7 días de la semana, con cómputo en memoria, administrando esos datos, administrando las cargas de trabajo, todo está en memoria, técnicamente en una plataforma efímera, si vamos a comenzar a aplicar parches, actualizaciones y mejoras en allí, eso viene con una amplia gama de otros desafíos de gestión y monitoreo también. Necesitamos saber qué podemos desconectar, cuándo podemos actualizarlo y cuándo lo ponemos nuevamente en línea. Y eso me lleva a mi punto final y es que, a medida que adquirimos más y más complejidad en estos sistemas, no es algo que un humano pueda hacer simplemente chupando su pulgar y jalando su oreja. Ya no hay, más o menos, acercamientos instintivos. Realmente necesitamos las herramientas adecuadas para administrar y entregar este alto nivel de rendimiento en la gestión de cómputo y datos.

Y con eso en mente, voy a entregar a nuestro amigo de IDERA y escuchar cómo han abordado este desafío.

Bill Ellis: Muchas gracias. Estoy compartiendo mi pantalla y aquí vamos. Por lo tanto, es realmente humillante solo considerar toda la tecnología, y todas las personas que vinieron antes que nosotros, para hacer que estas cosas que estén disponibles en 2017 estén disponibles. Vamos a hablar sobre el análisis de la carga de trabajo para SAP HANA, básicamente, una solución de monitoreo de base de datos: integral, sin agentes, proporciona en tiempo real y desarrolla un historial, para que pueda ver lo que sucedió en el pasado. SAP S / 4 HANA ofrece el potencial de mejor, más rápido y más barato. No digo que sea barato, solo digo que es menos costoso. Más o menos, tradicionalmente, lo que sucedía era que tendrías una instancia de producción principal, probablemente ejecutándose en Oracle en una tienda más grande, potencialmente SQL Server, y luego usarías ese proceso ETL y tendrías múltiples, más o menos versiones de la verdad . Y esto es muy costoso porque estaba pagando por hardware, sistema operativo, licencia de Oracle para cada uno de estos entornos individuales. Y además de eso, necesitaría tener personas para conciliar una versión de la verdad con la próxima versión de la verdad. Y así, este procesamiento ETL de múltiples versiones fue lento y muy, muy engorroso.

Y así, HANA, básicamente una instancia de HANA, puede potencialmente reemplazar todas esas otras instancias. Por lo tanto, es menos costoso porque es una plataforma de hardware, un sistema operativo, en lugar de múltiples. Y así, el S / 4 HANA, realmente, cambia todo y básicamente estás viendo la evolución de SAP de R / 2 a R / 3, los diversos paquetes de mejoras. Ahora, el sistema heredado está disponible hasta 2025, por lo que tiene ocho años hasta que realmente se vea obligado a migrar. Aunque vemos personas, ya sabes, metiéndose de puntillas porque saben que se acerca y, eventualmente, ya sabes, ECC se ejecutará en HANA, por lo que realmente deberías estar preparado para eso y comprender la tecnología.

Entonces, una base de datos, sin procesos ETL, sin copias que deben conciliarse. Entonces, una vez más, más rápido, mejor y más barato. HANA está en la memoria. SAP suministra el software, usted suministra el hardware. No hay tablas agregadas. Una de las cosas que, en cierta forma, sugieren cuando estás pensando en esto es que no quieres entrar en esto, solo vamos a comprar el servidor más grande que esté disponible. Sugieren que, en cierto modo, dimensione su paisaje SAP con anticipación y básicamente dicen que no migre los datos de 20 años. Creo que el archivado es algo subutilizado en TI, más o menos, en general, no solo en las tiendas de SAP. Y entonces, lo siguiente es que SAP realmente ha pasado mucho tiempo reescribiendo su código nativo para no usar SELECT *. SELECT * devuelve todas las columnas de la tabla y es particularmente costoso en una base de datos columnar. Por lo tanto, no es una buena idea para SAP HANA. Entonces, para las tiendas que tienen mucha personalización, muchos informes, esto es algo que querrá buscar y querrá especificar los nombres de las columnas a medida que avanza en la migración de todo a HANA.

Nos gusta decir que HANA no es una panacea. Al igual que todas las bases de datos, todas las tecnologías, debe monitorearse y, como se mencionó anteriormente, necesita números para administrar el exceso, medida por medida. Y una de las cosas de las que hablo en el área de IDERA es que cada transacción comercial interactúa con el sistema de registro, y en este caso, será HANA. Y así, HANA se convierte en la base para el desempeño de sus transacciones SAP, la experiencia del usuario final. Por lo tanto, es vital que se mantenga funcionando a la máxima velocidad. Se convierte en un punto único de falla, y al hablar con la gente, esto es algo que puede surgir donde tienes un usuario final y tal vez está usando esos datos en tiempo real y tienen una consulta ad hoc que potencialmente no es del todo Correcto. Tal vez no están uniendo tablas y han creado una unión externa, un producto partidista, y básicamente están consumiendo muchos recursos. Ahora, HANA lo reconocerá eventualmente y matará esa sesión. Y así, está la parte crucial de nuestra arquitectura que le permitirá capturar eso en la historia, para que pueda ver lo que sucedió en el pasado y reconocer esas situaciones.

Entonces, echemos un vistazo al análisis de carga de trabajo para SAP HANA. Esta es la Versión 1, por lo que le invitamos a unirse a nosotros en el viaje, y este es un producto de IDERA. Es completo, pero simple. En tiempo real con tendencias. Salud del huésped, salud de la instancia. Rastreamos los estados de espera, las consultas SQL, los consumidores de memoria y los servicios. Entonces, así es como se ve la GUI y puedes ver de inmediato que está habilitado para la web. De hecho, abrí esta solución ejecutándose en vivo en mi sistema. Hay algunas cosas cruciales que quieres echar un vistazo. Nos hemos subdividido en diferentes espacios de trabajo. El más crucial es lo que está sucediendo a nivel de host desde la utilización de la CPU y la utilización de la memoria. Definitivamente, no desea llegar a un punto de vista de intercambio o golpe. Y luego, básicamente, se abre camino hacia lo que sucede en las tendencias, desde el tiempo de respuesta, los usuarios, las declaraciones SQL, es decir, lo que impulsa la actividad en el sistema.

Una de las cosas con IDERA es que, ya sabes, no pasa nada en una base de datos hasta que hay actividad. Y esa actividad son declaraciones SQL que provienen de la aplicación. Por lo tanto, medir las declaraciones SQL es absolutamente vital para poder detectar la causa raíz. Entonces, avancemos y profundicemos. Entonces, a nivel de host, podemos echar un vistazo a la memoria, rastrear con el tiempo, la utilización de la CPU del host. Paso atrás, puedes mirar las declaraciones COBSQL. Ahora, una de las cosas que verá en nuestro lado de la arquitectura es que esta información se almacena fuera de HANA, por lo que si algo le sucediera a HANA, básicamente estamos capturando información hasta, Dios no lo permita, una situación de indisponibilidad . También podemos capturar todo lo que sucede en el sistema para que tenga una visibilidad clara. Y una de las cosas que vamos a hacer es presentar las declaraciones SQL en orden ponderado. Entonces, eso tendrá en cuenta el número de ejecuciones, y este es el consumo agregado de recursos.

Y así puede entrar en métricas individuales aquí: ¿cuándo se ejecutó esa declaración SQL? Y luego, el consumo de recursos depende en gran medida del plan de ejecución, por lo que podemos capturarlo de forma continua. HANA está en la memoria. Es muy paralelo. Tiene índices primarios en cada tabla, que algunas tiendas eligen crear un índice secundario para abordar ciertos problemas de rendimiento. Y así, un poco, saber lo que sucedió con el plan de ejecución para ciertas declaraciones SQL puede ser muy valioso. También veremos los servicios, el consumo de memoria una vez más, graficados con el tiempo. La arquitectura: por lo tanto, esta es una solución autónoma que puede descargar de nuestro sitio web y la arquitectura es que está habilitada para la web.

Puede hacer que varios usuarios se conecten a una instancia en particular. Puede monitorear instancias locales de SAP HANA. Y mantenemos un historial continuo de cuatro semanas en nuestro repositorio y eso es autogestionado. Para implementar esto, es bastante simple. Necesitas un servidor de Windows. Necesitas descargarlo. La mayoría de los servidores de Windows tendrán un marco .NET incorporado y viene con una licencia. Entonces, iría al asistente de instalación que está controlado por Setup.exe y en realidad abriría una pantalla, un acuerdo de licencia, y simplemente trabajaría en este esquema haciendo clic en "Siguiente". Entonces, ¿dónde le gustaría que HANA ¿estar instalado? Lo siguiente son las propiedades de la base de datos, y esta será su conexión con SAP HANA, por lo que se trata de un monitoreo sin agente de la instancia de HANA. Y luego básicamente daremos una vista previa, este es el puerto en el que nos comunicamos por defecto. Haga clic en "Instalar" y básicamente inicia HANA y comienza a construir el historial. Entonces, solo un poco de la información de la tabla de tallas. Podemos monitorear hasta 45 instancias de HANA, y querrá usar esto, más o menos, en una escala móvil para determinar la cantidad de núcleos, memoria y espacio en disco que necesitará. Y esto supone que tiene un historial completo de cuatro semanas entrando.

Entonces, solo como un resumen rápido, estamos viendo el estado del servidor, el estado de la instancia, la utilización de la CPU / memoria. ¿Cuáles son los consumidores de memoria, cuáles son los impulsores de la actividad, cuáles son los servicios? Las declaraciones SQL son vitales: ¿cuáles son los estados de ejecución? Muéstrame los planes de ejecución, ¿cuándo se ejecutaron las cosas, proporcionar tendencias? Esto le dará en tiempo real y una historia de lo que sucedió. Y como mencioné, debido a que nuestra historia está separada de HANA, vamos a capturar cosas que se han agotado y que han sido eliminadas de la historia de HANA. Para que pueda ver el verdadero consumo de recursos en su sistema debido al historial separado.

Entonces, como mencioné, el sitio web de IDERA, en Productos, puede encontrarlo fácilmente. Si quieres probar esto, ciertamente eres bienvenido. Vea cómo proporciona información para usted y hay información adicional en ese sitio web. Entonces, cualquier parte interesada está más que feliz de entrar en eso. Ahora, en la cartera de productos ofrecidos por IDERA, también hay un monitor de transacciones SAP ECC, y esto se llama Precise para SAP. Y lo que hace es, ya sea que esté usando el portal o simplemente ECC directo, capturará la transacción del usuario final desde el clic al disco, hasta la declaración SQL y le mostrará lo que está sucediendo.

Ahora, te muestro solo una pantalla de resumen. Hay un par de conclusiones que quiero que tengas de esta pantalla de resumen. Es el tiempo de respuesta del eje Y, el tiempo del eje X más el día, y en esta vista de transacciones le mostraremos el tiempo del cliente, el tiempo de espera, el tiempo del código ABAP, el tiempo de la base de datos. Podemos capturar identificaciones de usuarios finales, códigos T y usted puede filtrar y mostrar servidores a través de una transacción particular atravesada. Y así, muchas tiendas ejecutan la parte delantera del paisaje bajo VMware, por lo que en realidad puede medir lo que sucede en cada uno de los servidores y entrar en un análisis muy detallado. Por lo tanto, esta vista de transacción es para la transacción del usuario final a través de todo el panorama de SAP. Y puede encontrarlo en nuestro sitio web en Herramientas de productos APM y esta sería la solución de SAP que tenemos. La instalación para esto es un poco más complicada, por lo que no se trata solo de descargarla y probarla, como lo hemos hecho con HANA. Esto es algo en lo que trabajaríamos juntos para hacer, diseñar e implementar la transacción general para usted.

Entonces, solo un tercer resumen rápido, análisis de carga de trabajo para SAP HANA, es integral, sin agentes, en tiempo real, ofrece un historial. Ofrecemos la posibilidad de descargarlo y probarlo para su sitio.

Entonces, con eso, voy a pasar el tiempo de regreso a Eric, Dez y el Dr. Bloor.

Eric Kavanagh: Sí, tal vez Robin, ¿alguna pregunta tuya, y luego Dez después de Robin?

Dr. Robin Bloor: De acuerdo. Quiero decir, lo primero que me gustaría decir es que realmente me gusta la vista de transacciones porque es exactamente lo que me gustaría en esa situación. Hice mucho trabajo, bueno, hace mucho tiempo en este momento, haciendo monitoreo de rendimiento, y ese era el tipo de cosas; no teníamos los gráficos en esos días, pero ese era el tipo de cosas que particularmente quería poder hacer. Para que pueda, de una forma u otra, inyectarse donde sea que esté ocurriendo el problema.

La primera pregunta que tengo es, ya sabes, la mayoría de las personas están implementando S / 4 de una manera u otra fuera de la caja, ya sabes. Cuando te involucras en una implementación dada de S / 4, ¿descubriste que se implementó bien o terminas, ya sabes, descubriendo cosas que podrían hacer que el cliente quiera reconfigurarse? Quiero decir, ¿cómo va todo eso?

Bill Ellis: Bueno, cada tienda es un poco diferente. Y hay diferentes patrones de uso, hay diferentes informes. Para los sitios que tienen informes ad hoc, quiero decir que en realidad es un comodín en el sistema. Por lo tanto, una de las cosas cruciales es comenzar la medición y descubrir cuál es la línea de base, qué es normal para un sitio en particular, dónde está ese sitio en particular, en función de sus patrones de uso, haciendo hincapié en el sistema. Y luego hacer ajustes desde allí. Por lo general, la optimización de monitoreo no es una única vez, es realmente una práctica continua en la que se monitorea, ajusta y perfecciona, mejorando el sistema para que la comunidad de usuarios finales pueda servir al negocio de manera más efectiva.

Dr. Robin Bloor: De acuerdo, así que cuando implemente, quiero decir, sé que esta es una pregunta difícil de responder porque variará según el tamaño de la implementación, pero cuánto recurso consume la capacidad de monitoreo de IDERA, cuánto consume ? ¿Hay alguna diferencia en algo o simplemente no interfiere? ¿Cómo funciona?

Bill Ellis: Sí, diría que los gastos generales son aproximadamente del 1 al 3 por ciento. Muchas tiendas están muy dispuestas a sacrificar eso porque potencialmente podrá volver a comprarlo en términos de optimización. Depende de los patrones de uso. Si está haciendo un panorama completo, depende de las tecnologías individuales que se están monitoreando. Entonces, más o menos, el kilometraje varía, pero como hemos hablado, definitivamente es mejor gastar un poco para saber qué está pasando, que simplemente correr a ciegas. En particular, sería, ya sabes, aquí estamos en enero y entras en el procesamiento de fin de año y estás agregando 12 meses de datos. Sabes, eso es hacer un desempeño, hacer llegar informes a las organizaciones reguladoras, los bancos, a los accionistas, es absolutamente vital en un desempeño comercial crítico.

Dr. Robin Bloor: Correcto. Y solo un poco, desde su perspectiva, porque supongo que está involucrado con una serie completa de sitios de SAP, ¿qué tan grande es el movimiento entre la base de clientes de SAP hacia S / 4? Quiero decir, ¿es algo que está siendo, ya sabes, que hay una especie de avalancha de clientes entusiastas, o es solo un goteo constante? ¿Cómo ve eso?

Bill Ellis: Creo que hace un par de años, diría que fue un dedo del pie. Ahora diría que la gente está, hasta cierto punto, arrodillada. Creo que, ya sabes, dada la línea de tiempo, las personas estarán realmente inmersas en HANA durante los próximos años. Entonces, el monitoreo, la transformación, creo que la mayoría de los clientes están, en cierto modo, juntos en la curva de aprendizaje. Entonces, creo que no estamos en la avalancha como usted dijo, pero creo que estamos en la cúspide de la gran transformación hacia HANA.

Dr. Robin Bloor: De acuerdo, entonces, en términos de los sitios que has visto que han ido para esto, ¿también están adaptando HANA para otras aplicaciones o, de una forma u otra, están completamente consumidos para hacer esto? cosas funcionan? ¿Cuál es la foto allí?

Bill Ellis: Sí, muchas veces las personas integrarán SAP con otros sistemas, dependiendo de qué módulos, etc., hay un poco. Realmente todavía no veo personas implementando otras aplicaciones en HANA. Eso es ciertamente posible de hacer. Y por lo tanto, se trata más del entorno de la infraestructura de SAP.

Dr. Robin Bloor: Supongo que será mejor que te entregue a Dez. He estado acaparando tu tiempo. Dez?

Dez Blanchfield: Gracias. No, eso está todo bien. Dos muy rápidos, solo para tratar de establecer el tema. SAP HANA ha estado fuera por un par de años y la gente ha tenido la oportunidad de considerarlo. Si tuviera que darnos una estimación aproximada del porcentaje de personas que lo manejan, porque hay muchas personas que manejan estas cosas, ¿cuál cree que es el porcentaje del mercado que conoce que actualmente se ha ido? ¿desde solo implementaciones tradicionales de SAP hasta SAP en HANA? ¿Estamos mirando 50/50, 30/70? ¿Qué porcentaje del mercado está viendo de las personas que hicieron la transición y se mudaron ahora frente a las personas que simplemente se están deteniendo y esperando que las cosas mejoren o mejoren o cambien o sea el caso?

Bill Ellis: Sí, desde mi perspectiva, pondría el porcentaje alrededor del 20 por ciento. SAP tiende a ser negocios tradicionales. Las personas tienden a ser muy conservadoras, por lo que su gente arrastrará los pies. Creo que también depende de, ya sabes, ¿has estado ejecutando SAP durante mucho tiempo, o eres una especie de PYME que quizás haya implementado SAP más recientemente? Entonces, hay una serie de factores, pero en general no creo que el porcentaje sea 50/50. Yo diría que el 50 por ciento al menos está incursionando y tiene a HANA ejecutándose en algún lugar de su centro de datos.

Dez Blanchfield: La conclusión interesante que nos dio anteriormente fue que se trata de un hecho consumado en cierto sentido y que el reloj está marcando física y literalmente el tiempo de transición. En el proceso de hacer eso, ¿crees que la gente lo ha considerado? ¿Cuál es el sentido general de la comprensión popular de que este es un cambio de transición en la plataforma, no es solo una opción, se está convirtiendo en el valor predeterminado?

Y desde el punto de vista de SAP, estoy seguro de que están presionando de esa manera porque hay una ventaja competitiva significativa en el rendimiento, pero también, supongo, están luchando por el control de la plataforma en lugar de ir a un tercero. base de datos del partido, ahora lo están trayendo de vuelta a su propia plataforma. ¿Crees que las empresas realmente han recibido ese mensaje? ¿Crees que la gente entiende eso y ahora se está preparando? ¿O sigue siendo, más o menos, algo poco claro, cree usted, fuera del mercado?

Bill Ellis: No creo que SAP sea tímido para comunicarse y las personas que han ido a SAPPHIRE han visto a HANA en todas partes. Entonces, creo que las personas son muy conscientes, pero la naturaleza humana es lo que es, ya sabes, algunas personas están, de alguna manera, arrastrando un poco los pies.

Dez Blanchfield: Porque creo que es la razón por la que hice esa pregunta, y tendrás que perdonarme, pero es que estoy de acuerdo. Creo que no han sido tímidos para comunicarlo. Creo que la señal se ha apagado de muchas maneras. Y estoy de acuerdo contigo: no sé si todos han saltado todavía. Ya sabes, las empresas tradicionales, las empresas muy grandes que están manejando esto, todavía están en muchos aspectos, no del todo arrastrando los pies, sino simplemente tratando de lidiar con la complejidad del cambio. Porque creo que lo único que su herramienta, y ciertamente su demostración de hoy ha resaltado, y para mí, una conclusión clave que me gustaría que todos escucharan y sintonizaran hoy para sentarse y prestar atención reflexivamente es que tienen un herramienta que ahora simplifica ese proceso en mi mente. Creo que hay un montón de CIO muy nerviosos y sus equipos bajo ellos que piensan: “¿Cómo hago la transición de RDBMS tradicional, sistemas de gestión de bases de datos relacionales, que hemos conocido durante décadas, a un paradigma completamente nuevo de computación y ¿Gestión de almacenamiento en un espacio que todavía es relativamente valiente? ”en mi mente. Pero es un hecho desconocido en muchos sentidos, y hay muy pocas personas que han hecho ese cambio en otras áreas, que no es como si tuvieran otra sección de negocios que ya se haya movido a la computación en memoria. Entonces, es un movimiento de todo o nada en su mente.

Entonces, una de las cosas que he eliminado de esto más que nada, voy a golpearte con una pregunta en un minuto, es que el miedo ahora, creo, se disipa de muchas maneras y que antes de hoy, si yo fuera un CIO escuchando, pensaría, “Bueno, ¿cómo voy a hacer esta transición? ¿Cómo voy a garantizar la misma capacidad que tenemos en la plataforma de administración de bases de datos relacionales y los años de experiencia de los DBA, a una nueva plataforma en la que actualmente no tenemos las habilidades? ”Entonces, mi pregunta con eso es, ¿crees que la gente ha entendido que las herramientas están ahí ahora con lo que estás ofreciendo, y que pueden, de alguna manera, respirar profundamente y suspirar de alivio porque la transición no es tan aterradora como podría haber sido antes? a esta herramienta está disponible? ¿Crees que la gente ha entendido eso o sigue siendo, algo así como algo que simplemente están lidiando con la transición al cómputo en memoria y al almacenamiento en memoria frente a las combinaciones de NVMe, flash y disco de la vieja escuela?

Bill Ellis: Sí, así que indudablemente hay mucha tecnología y herramientas que pueden mostrar gráficamente esto, lo que está sucediendo y hacen que sea muy fácil identificar a los principales consumidores de recursos. Quiero decir, ayuda a simplificar las cosas y ayuda al personal de tecnología a tener un buen manejo. Oigan, podrán saber qué está pasando y comprender toda la complejidad. Entonces, absolutamente, las herramientas en el mercado son definitivamente útiles y por eso ofrecemos análisis de carga de trabajo para SAP HANA.

Dez Blanchfield: Sí, creo que lo mejor de lo que nos ha mostrado hoy es que, al monitorear la pieza de hardware, la pieza del sistema operativo, incluso monitorear parte de la carga de trabajo que se mueve, como usted dijo, quiero decir, las herramientas He estado allí por algún tiempo. Lo importante para mí, particularmente dentro de los gustos de HANA, es que no necesariamente hemos tenido la capacidad de obtener una lupa y echarle un vistazo y ver qué hace su herramienta con lo que sucede con las consultas y cómo están estar estructurado y dónde está esa carga.

Con las implementaciones que has visto hasta ahora, dado que eres literalmente el más autorizado en este espacio en tu plataforma en el mundo, algunas de las ganancias rápidas que has visto: ¿tienes algún conocimiento anecdótico con el que puedas compartir? En torno a algunos de los momentos eureka, los momentos aha, donde las personas han implementado el conjunto de herramientas IDERA, han encontrado cosas que simplemente no sabían que estaban en sus plataformas y actuaciones que tuvieron. ¿Tienes buenos ejemplos anecdóticos de dónde la gente lo acaba de desplegar, sin saber realmente lo que tenían y de repente se ha ido, "Wow, en realidad no sabíamos que estaba allí?"

Bill Ellis: Sí, así que una gran limitación de las herramientas nativas es que si se cancela una consulta fuera de control, se borra la información y, por lo tanto, básicamente no se tiene el historial. Al almacenar el historial fuera de línea, como una consulta fuera de control, tendrá un historial, sabrá lo que sucedió, podrá ver el plan de ejecución, etc. Y así, eso le permite, de alguna manera, ayudar a la comunidad de usuarios finales a funcionar básicamente mejor, escribir informes mejor, etc. Y así, la historia es algo que es realmente bueno tener. Y una de las cosas que tenía la intención de mostrar es que puede ver en tiempo real hasta cuatro semanas y luego puede ampliar fácilmente cualquier período de interés y luego puede exponer la actividad de conducción subyacente. Solo tener esa visibilidad es algo muy útil para saber qué cuello de botella ha surgido.

Dez Blanchfield: Usted mencionó que es multiusuario, una vez que se implementa, y quedé bastante impresionado por el hecho de que es sin agentes y efectivamente cero contacto en muchos sentidos. ¿Es normal que una única implementación de su herramienta esté disponible para todos desde el centro de operaciones de red en el NOC que observa la infraestructura central que sustenta el clúster hasta el equipo de aplicación y desarrollo? ¿Es la norma y se despliegan una vez y ellos compartirían eso, o anticipan que las personas podrían tener instancias de modelos mirando diferentes partes de la pila? ¿Cómo se ve eso?

Bill Ellis: Entonces, el equipo base generalmente tendrá un gran interés en los fundamentos tecnológicos de lo que está sucediendo en SAP. Obviamente, hay varios equipos que soportarán paisajes enteros. La pieza de HANA solo se centra en eso. Solo voy a pasar por defecto al equipo base de SAP como los principales consumidores de la información.

Dez Blanchfield: Correcto. Sin embargo, me sorprende que si tengo un equipo de desarrollo o no solo a nivel de código, pero si tengo un equipo de científicos de datos o analistas que realizan un trabajo analítico sobre los conjuntos de datos allí, particularmente dado que hay En mi opinión, un impulso significativo a la ciencia de datos que se aplica a todo dentro de las organizaciones, y corregirme si me equivoco, me parece que esto también será de gran interés para ellos, porque de muchas maneras uno Una de las cosas serias que puede hacer en un entorno de almacenamiento de datos es liberar a un científico de datos y permitirle comenzar a hacer consultas ad hoc. ¿Ha tenido algún ejemplo de ese tipo de cosas que suceden donde las tiendas lo han llamado y le han dicho: “Hemos lanzado un equipo de ciencia de datos al respecto, es realmente doloroso, qué podemos hacer por ellos versus lo que estamos haciendo en solo ¿Monitoreo y gestión operacional tradicional? ”¿Es eso incluso una cosa?

Bill Ellis: Bueno, sí, cambiaría un poco esto y cortaría mi respuesta sería que, mirando el rendimiento, teniendo en cuenta el rendimiento en el desarrollo de la producción de control de calidad, ya sabes, cuanto antes almacene, menos problemas, menos Sorpresas que tienes. Entonces, absolutamente.

Dez Blanchfield: a partir de eso, muchas de las herramientas con las que he tenido experiencia, y estoy seguro de que Robin estará de acuerdo, muchas de las herramientas aquí, si tienes un RDBMS grande que necesitas realmente alto, DBA calificados, con profundos conocimientos y experiencia. Algunos de los requisitos de infraestructura y plataforma que se presentan con SAP HANA porque actualmente es compatible con distribuciones particulares que se alinean desde un hardware particular, etc., según mi leal saber y entender. Ya sabes, hay personas con décadas de experiencia que no son lo mismo. Sin embargo, lo que estoy viendo es que ese no es necesariamente el requisito con esta herramienta. Me parece que puede implementar su herramienta y dársela a algunas caras bastante nuevas y darles el poder de inmediato para encontrar cosas que no funcionan bien. ¿Es el caso de que hay una curva de aprendizaje bastante corta para ponerse al día con esto y obtener algún valor al implementarlo? Sabes, mi sentido general es que no tienes que tener 20 años de experiencia manejando una herramienta para ver el valor de inmediato. ¿Estaría de acuerdo en que es el caso?

Bill Ellis: Ah, absolutamente, y hasta su punto, creo que gran parte del éxito de una implementación realmente depende de la planificación y la arquitectura del entorno SAP HANA. Y luego, sin duda, hay mucha complejidad, mucha tecnología en la que se basa, pero luego todo se reduce a monitorear los patrones de uso de lo que está sucediendo. Entonces, aunque es más complejo, en cierto modo está empaquetado y algo simplificado. Eso es muy pobre.

Dez Blanchfield: Sí, así que antes de devolvérselo a Eric, porque sé que tiene un par de preguntas, particularmente de algunas que han surgido a través de preguntas y respuestas que parecían interesantes, y estoy ansioso por escuchar la respuesta. Viaje tradicional para alguien: usted mencionó anteriormente que puede obtenerlo, puede descargarlo y probarlo. ¿Puedes resumirlo rápidamente para escuchar a la gente hoy o personas que podrían repetirlo más tarde? ¿Cuáles son los dos o tres pasos rápidos para obtener una copia e implementarla y probarla en sus entornos antes de comprarla? ¿Cómo se ve eso? ¿Cuáles son los pasos para eso?

Bill Ellis: Sí Entonces, IDERA.com y solo vaya a Productos y verá Análisis de carga de trabajo para SAP HANA. Hay una página de descarga. Creo que le pedirán información de contacto y el producto solo está empaquetado con una clave de licencia para que pueda instalarlo con Setup.exe y comenzar a funcionar, creo, muy rápidamente.

Dez Blanchfield: Entonces, pueden ir a su sitio web, pueden descargarlo. Recuerdo haberlo visto hace algún tiempo y lo revisé anoche también, ¿puedes solicitar una demostración, de memoria, donde alguien de tu equipo te guiará? Pero en realidad puedes descargarlo gratis e implementarlo localmente en tu propio entorno, en tu propio tiempo, ¿no?

Bill Ellis: si.

Dez Blanchfield: excelente. Bueno, creo que, más que nada, eso es probablemente lo que personalmente recomendaría a la gente que haga, es tomar una copia del sitio web, tomar parte de la documentación allí porque sé que hay mucho contenido bueno para hacerlo, y solo pruébalo. Póngalo en su entorno y vea lo que encuentra. Sospecho que una vez que eche un vistazo debajo del capó con sus entornos SAP HANA con la herramienta IDERA, encontrará cosas que realmente no sabía que estaban allí.

Mira, muchas gracias por eso y gracias por el tiempo solo para las preguntas y respuestas con Robin y yo. Eric, voy a contactarte porque sé que algunas de las preguntas y respuestas de nuestros asistentes también.

Eric Kavanagh: Sí, solo uno muy rápido aquí. Entonces, uno de los asistentes hace un muy buen comentario aquí solo hablando de cómo están cambiando las cosas. Dicho en el pasado, la memoria se estaba ahogando, disminuyendo la velocidad por paginación frecuente, actualmente la CPU se está ahogando con demasiados datos en memoria. Ya sabes, hay problemas de red. Siempre va a ser un objetivo en movimiento, ¿verdad? ¿Cuál ves como la trayectoria en estos días en términos de dónde van a estar los cuellos de botella y dónde vas a necesitar concentrar tu atención?

Bill Ellis: Sí Hasta que midas, es difícil saberlo. Una de las cosas sobre las declaraciones SQL es que van a ser los impulsores del consumo de recursos. Y así, en el caso de que tuvieras que tener, como un gran consumo de memoria o consumo de CPU, podrás averiguar qué actividad causó ese consumo de recursos. Ahora, no necesariamente querrás matarlo, pero también debes ser consciente de él y, más o menos, de lo que está sucediendo, con qué frecuencia sucede, etc. Todavía somos nuevos en términos de abordar todo el conjunto o el libro de cocina de respuestas a diferentes circunstancias. Y entonces, es una gran pregunta y el tiempo lo dirá. Tendremos más información a medida que pase el tiempo.

Eric Kavanagh: Eso es todo. Bueno, ustedes están en un espacio muy interesante. Creo que van a ver mucha actividad en los próximos meses y en los próximos dos años porque sé que SAP, como sugirieron en nuestra llamada de contenido, ha proporcionado una buena rampa de entrada para que la gente haga la transición a HANA. Pero, no obstante, esa rampa tiene un final y en cierto punto la gente tendrá que tomar algunas decisiones serias, así que cuanto antes mejor, ¿verdad?

Bill Ellis: absolutamente.

Eric Kavanagh: Muy bien amigos, hemos quemado una hora más aquí en Hot Technologies. Puede encontrar información en línea, insideanalysis.com, también techopedia.com. Concéntrese en ese sitio para obtener mucha información interesante, incluida una lista de todos nuestros archivos de estas transmisiones web anteriores. Pero amigos, muchas gracias a todos ustedes, a nuestros amigos de IDERA, a Robin y, por supuesto, a Dez. Y los alcanzaremos la próxima semana, amigos. Gracias nuevamente por su tiempo y atención. Cuídate. Adiós.

Hacia el futuro: una rampa de acceso para la informática en memoria