clarissalimab / rasaNLU-http-server

Simple Rasa NLU project to run as an HTTP server.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Rasa NLU Server

Este é um pequeno boilerplate para aplicações que desejam utilizar o Rasa NLU para compreender falas simples e identificar entidades. Envie um olá para o bot em:

https://rasanlu-server.herokuapp.com/parse?q=olá&model=nlu

Virtualenv

Instalação

Instale o RasaNLU usando com o pipeline do Tensorflow:

$ pip install rasa_nlu[tensorflow]

Se você estiver usando o zsh, talvez você precise rodar assim:

$ pip install rasa_nlu'[tensorflow]'

Treinamento

$ make train

Servidor

Para iniciar o servidor com os logs ativados:

$ make serve-logging

Para iniciar o servidor com os logs desativados:

$ make serve

Docker

Crie a imagem na sua máquina a partir do Dockerfile presente no projeto:

$ docker build -t rasa-server -f Dockerfile . --no-cache

Execute a imagem que você criou:

$ docker run -p 5000:5000 rasa-server:latest train

Requisição

Você pode fazer uma requisição para o seu servidor com a seguinte URL:

http://localhost:5000/parse?q=[SEU TEXTO AQUI]&model=nlu

Dependendo de como você fez o treinamento, possivelmente você precise passar o nome do projeto como parâmetro na requisição (project=[nome do seu projeto]). O mesmo acontece se você tiver diferentes modelos de treinamento, ou se você definir um token para o seu servidor.

About

Simple Rasa NLU project to run as an HTTP server.

License:GNU General Public License v3.0


Languages

Language:Dockerfile 51.0%Language:Makefile 49.0%