Kaggle competition: Springleaf Marketing Response

Overview

PruebaEnel

Prueba Kaggle-Springleaf-master

Prueba Kaggle-Springleaf

Kaggle competition: Springleaf Marketing Response

Competencia de Kaggle: Marketingarketing de Springleaf por parte del equipo KarolCastillo

Introduccion

Este repositorio contiene cuadernos de ipython preparados para la competencia Kaggle: Springleaf Marketing Response. Springleaf ofrece a sus clientes préstamos personales y para automóviles que los ayudan a tomar el control de sus vidas y sus finanzas. El correo directo es una forma importante en que el equipo de Springleaf puede conectarse con los clientes que pueden necesitar un préstamo. Para mejorar su esfuerzo específico, a Springleaf le gustaría centrarse en los clientes que probablemente respondan y sean buenos candidatos para sus servicios.

Usando un gran conjunto de funciones y Data anonimizada anonimizadas, Springleaf nos pide que predigamos qué clientes responderán a una oferta de correo directo.

Data

Contamos con un conjunto de datos anonymized cse proporciona información del cliente. Cada entrada (fila) corresponde a un cliente. la variable de respuesta es binaria. Hay más de 140.000 entradas tanto en el conjunto de prueba como en el de entrenamiento.

Guia Proyecto

Procesamiento de la Data

En la carpeta de preprocesamiento, los datos de características se procesaron de manera diferente en función de los diferentes tipos de datos.

  1. Los datos numéricos se preprocesaron en data_preprocessing_SL_Feb2022_train_test_th60.ipynb. El procesamiento clave incluye imputación de valores perdidos, detección de valores atípicos, transformación logarítmica de columnas sesgadas a la derecha, estandarización de columnas numéricas, etc. Además de las columnas numéricas básicas, se derivaron 10 columnas numéricas. Las columnas categóricas con un número limitado de valores se transformaron utilizando DictVectorizer (codificación OneHot). Las columnas numéricas con muy pocos valores se separan de otras columnas numéricas, al igual que las columnas de series temporales.

  2. Los datos de series temporales se procesaron en data_preprocessing_SL_Feb2022_time_series_normalization.ipynb

  3. Las columnas categóricas con demasiados valores, así como las columnas numéricas con muy pocos valores, se procesaron en data_preprocessing_SL_Feb2022_cat_num_normalization.ipynb

  4. Todas las demás columnas categóricas se preprocesaron con la codificación OneHot en data_preprocessing_SL_Feb2022_th60_cat_label_encoding.ipynb

Caracteristicas de la seleccion

Estas Caracteristicas de Seleccion estan en la carpeta seleccion_característicascaracterísticas. Se escogieron multiples metodos, incluyendo RFECV, greedy forward selection, backward selection and the SelectKBest from sklearn. Entrada de los Modelos:

  1. Modelo Lineal (Logistic, SVM, Passive aggressive): numerical variables
  2. A´rbol de Busqueda (xgBoost, random forest, scikit learn gradient boosting): numerical + veriables categoricas

Optimizacion Modelos

Entrenamiento de Modelos gridsearchCV o el home-built método que genera predicción en el conjunto de prueba durante la validación cruzada, la predicción se puede usar más adelante como metacaracterísticas. La búsqueda en cuadrícula se realizó con diferentes algoritmos, como xgboost, random forest, online svm y regresión logística.

Prediccion Final

Las predicciones finales se realizan con modelos de nivel 0 y nivel 1 utilizando características básicas, características derivadas y metacaracterísticas, utilizando modelos que incluyen xgBoost, RandomForest, regresión logística SGD, máquinas de vectores de soporte SGD, clasificador pasivo-agresivo SDG.

Modelos

La idea es selecccionar el Modelo más optimo

Official implementation of the method ContIG, for self-supervised learning from medical imaging with genomics

ContIG: Self-supervised Multimodal Contrastive Learning for Medical Imaging with Genetics This is the code implementation of the paper "ContIG: Self-s

Digital Health & Machine Learning 22 Dec 13, 2022
Repository for the paper "Exploring the Sensory Spaces of English Perceptual Verbs in Natural Language Data"

Sensory Spaces of English Perceptual Verbs This repository contains the code and collocational data described in the paper "Exploring the Sensory Spac

David Peng 0 Sep 07, 2021
SMPLpix: Neural Avatars from 3D Human Models

subject0_validation_poses.mp4 Left: SMPL-X human mesh registered with SMPLify-X, middle: SMPLpix render, right: ground truth video. SMPLpix: Neural Av

Sergey Prokudin 292 Dec 30, 2022
Ağ tarayıcı.Gönderdiği paketler ile ağa bağlı olan cihazların IP adreslerini gösterir.

NetScanner.py Ağ tarayıcı.Gönderdiği paketler ile ağa bağlı olan cihazların IP adreslerini gösterir. Linux'da Kullanımı: git clone https://github.com/

4 Aug 23, 2021
A comprehensive and up-to-date developer education platform for Urbit.

curriculum A comprehensive and up-to-date developer education platform for Urbit. This project organizes developer capabilities into a hierarchy of co

Sigilante 36 Oct 04, 2022
Multi-Object Tracking in Satellite Videos with Graph-Based Multi-Task Modeling

TGraM Multi-Object Tracking in Satellite Videos with Graph-Based Multi-Task Modeling, Qibin He, Xian Sun, Zhiyuan Yan, Beibei Li, Kun Fu Abstract Rece

Qibin He 6 Nov 25, 2022
A real-time speech emotion recognition application using Scikit-learn and gradio

Speech-Emotion-Recognition-App A real-time speech emotion recognition application using Scikit-learn and gradio. Requirements librosa==0.6.3 numpy sou

Son Tran 6 Oct 04, 2022
[NeurIPS 2021] PyTorch Code for Accelerating Robotic Reinforcement Learning with Parameterized Action Primitives

Robot Action Primitives (RAPS) This repository is the official implementation of Accelerating Robotic Reinforcement Learning via Parameterized Action

Murtaza Dalal 55 Dec 27, 2022
Implementation of PersonaGPT Dialog Model

PersonaGPT An open-domain conversational agent with many personalities PersonaGPT is an open-domain conversational agent cpable of decoding personaliz

ILLIDAN Lab 42 Jan 01, 2023
TensorFlow implementation of PHM (Parameterization of Hypercomplex Multiplication)

Parameterization of Hypercomplex Multiplications (PHM) This repository contains the TensorFlow implementation of PHM (Parameterization of Hypercomplex

Aston Zhang 9 Oct 26, 2022
Code for the upcoming CVPR 2021 paper

The Temporal Opportunist: Self-Supervised Multi-Frame Monocular Depth Jamie Watson, Oisin Mac Aodha, Victor Prisacariu, Gabriel J. Brostow and Michael

Niantic Labs 496 Dec 30, 2022
CAMoE + Dual SoftMax Loss (DSL): Improving Video-Text Retrieval by Multi-Stream Corpus Alignment and Dual Softmax Loss

CAMoE + Dual SoftMax Loss (DSL): Improving Video-Text Retrieval by Multi-Stream Corpus Alignment and Dual Softmax Loss This is official implement of "

程星 87 Dec 24, 2022
Kalidokit is a blendshape and kinematics solver for Mediapipe/Tensorflow.js face, eyes, pose, and hand tracking models

Blendshape and kinematics solver for Mediapipe/Tensorflow.js face, eyes, pose, and hand tracking models.

Rich 4.5k Jan 07, 2023
一个目标检测的通用框架(不需要cuda编译),支持Yolo全系列(v2~v5)、EfficientDet、RetinaNet、Cascade-RCNN等SOTA网络。

一个目标检测的通用框架(不需要cuda编译),支持Yolo全系列(v2~v5)、EfficientDet、RetinaNet、Cascade-RCNN等SOTA网络。

Haoyu Xu 203 Jan 03, 2023
PCGNN - Procedural Content Generation with NEAT and Novelty

PCGNN - Procedural Content Generation with NEAT and Novelty Generation Approach — Metrics — Paper — Poster — Examples PCGNN - Procedural Content Gener

Michael Beukman 8 Dec 10, 2022
This repo generates the training data and the model for Morpheus-Deblend

Morpheus-Deblend This repo generates the training data and the model for Morpheus-Deblend. This is the active development repo for the project and as

Ryan Hausen 2 Apr 18, 2022
Unofficial TensorFlow implementation of the Keyword Spotting Transformer model

Keyword Spotting Transformer This is the unofficial TensorFlow implementation of the Keyword Spotting Transformer model. This model is used to train o

Intelligent Machines Limited 8 May 11, 2022
The official repository for "Score Transformer: Generating Musical Scores from Note-level Representation" (MMAsia '21)

Score Transformer This is the official repository for "Score Transformer": Score Transformer: Generating Musical Scores from Note-level Representation

22 Dec 22, 2022
Mini-hmc-jax - A simple implementation of Hamiltonian Monte Carlo in JAX

mini-hmc-jax This is a simple implementation of Hamiltonian Monte Carlo in JAX t

Martin Marek 6 Mar 03, 2022
Autoencoders pretraining using clustering

Autoencoders pretraining using clustering

IITiS PAN 2 Dec 16, 2021