El protocolo CGI





El protocolo CGI:

El protocolo CGI (Common Gateway Interface) fue creado para establecer un protocolo standard de comunicación entre el web-server y cualquier lenguaje de programación de forma tal que desde el lenguaje “x” puedan recibirse datos que el usuario envía usando el método “POST” o “GET” y además el resultado de la aplicación sea derivado por el web-server al browser.

Protocolo CGI

Protocolo CGI





Típicamente para recibir datos se usa alguna biblioteca o módulo del lenguaje elegido que implementa el protocolo CGI y para enviar datos simplemente se envían al standard-output desde el lenguaje elegido y el web-server se encarga de redireccionar esto al browser.

Para ejecutar una aplicación CGI el web-server en general procede de la siguiente manera:

  • Se toma el “request del browser” y los datos que se envían al server por método “GET” o “POST” se pasan a variables de ambiente.

  • El server redirecciona su salida standard al browser.

  • El server crea un proceso (Fork) (que tiene la salida standard redireccionada)

  • El server ejecuta en el proceso creado la aplicación deseada.

  • Se ejecuta la aplicación

Cuando la aplicación termina de ejecutarse el proceso muere. Dentro de la aplicación se usa algún mecanismo para recuperar los datos enviados por el browser desde las variables de ambiente (todos los lenguajes manipulan variables de ambiente). El protocolo CGI justamente consiste en especificar de que forma los datos enviados por el browser se convierten en variables de ambiente, esto en general es transparente al usuario.

De esta forma pueden realizarse aplicaciones para un web-site en casi cualquier lenguaje, los lenguajes interpretados rápidamente ganaron terreno ya que tienen un ciclo de desarrollo en tiempo inferior a los lenguajes compilados y son más fáciles de debuggear dentro del ambiente CGI.

Los lenguajes no interpretados (C, C++) tienen como ventaja que requieren menos recursos del server al generarse el proceso CGI (no hace falta un interprete) y además suelen ser mucho más veloces en su ejecución (no se necesita interpretar nada), sin embargo el desarrollar y debuggear suelen ser tareas muy complejas y no siempre se justifica el esfuerzo si la aplicación es pequeña. En los comienzos de la web la gran mayoría de las aplicaciones se encontraban en la categoría chica / muy chica por lo que la eficiencia no era un factor importante y por eso los lenguajes compilados no se utilizaron demasiado.

La desventaja de las aplicaciones CGI consiste en que el server debe realizar un fork, y ejecutar la aplicación

o bien el interprete de la aplicación, y este ciclo que se cumple cada vez que se ejecuta la aplicación CGI insume muchos recursos y en general es costoso en tiempo para el server. Durante muchos años este esquema no muy eficiente dominó ampliamente el mundo de las aplicaciones Web.





También te podría gustar...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *