Con éxito

Notas

Error

Session expiration Your session is going to expireClick here to extend

Presupuesto

800 - 1.500

Publicado el

7/12/13 20:45

Cliente

Mig***

Este proyecto ha expirado

Publica un proyecto similar y recibe ofertas sin compromiso alguno.

¡Publica un proyecto similar ahora!

Descripción

Necesitamos implementar un servidor de indexación y búsquedas (Lucene/solr) que usará datos recogidos de distintas fuentes en una Base de Datos.

Debemos conseguir los datos de la base de datos y definir su arquitectura. Las fuentes de información serán distintas API’s de social media y web scrapping. Las API’s serán, entre otras, Google Maps, Google Local data, Facebook Social Graph API de tiendas locales, Foursquare API. La obtención de la información yactualización, es un proceso que deberá ser definido y desarrollado para mantener la información de la Base de Datos actualizada constantemente.

Los datos serán procesados para organizarlos, clasificarlos, realizar cálculos y Business Intelligence sobre los mismos.

A través de un CMS del backend tendremos acceso a los datos para realizar búsquedas manuales, editarlos y publicarlos al servidor de indexado. El CMS deberá crear automáticamente 2 objetos para cada ID de las fuentes de datos. Cada uno de los dos objetos tendrá una serie de campos provenientes de los datos originales conseguidos. Cada campo puede ser editado, publicado/despublicado al servidor de indexado. Cada uno de estos dos objetos corresponden con una versión web y móvil de los datos. Todos estos datos serán accesibles por el front end después de realizar una petición de búsqueda.

El servidor de indexación recibirá peticiones de búsquedas de los usuarios de web y móvil front end (Andorid APP). El front end accederá a los datos mediantes peticiones GET/POST y / o un REST API desarrollado específicamente.

Además, necesitaremos obtener información de nuestros usuarios. Habrán 2 tipos de APIs. Facebook Login y Android Login. Hay que recoger toda la información de los usuarios que se registre/logueen. Además de fecha de logueo, queries realizadas y geolocalización.

User profiling: mapear la base de datos de usuarios y de datos de social media será necesario para realizar queries personalizadas al usuario y enviar mediante alertas push al front end.

 

Gracias

Miguel Cabeza