Kaggle competition: Springleaf Marketing Response

Overview

PruebaEnel

Prueba Kaggle-Springleaf-master

Prueba Kaggle-Springleaf

Kaggle competition: Springleaf Marketing Response

Competencia de Kaggle: Marketingarketing de Springleaf por parte del equipo KarolCastillo

Introduccion

Este repositorio contiene cuadernos de ipython preparados para la competencia Kaggle: Springleaf Marketing Response. Springleaf ofrece a sus clientes préstamos personales y para automóviles que los ayudan a tomar el control de sus vidas y sus finanzas. El correo directo es una forma importante en que el equipo de Springleaf puede conectarse con los clientes que pueden necesitar un préstamo. Para mejorar su esfuerzo específico, a Springleaf le gustaría centrarse en los clientes que probablemente respondan y sean buenos candidatos para sus servicios.

Usando un gran conjunto de funciones y Data anonimizada anonimizadas, Springleaf nos pide que predigamos qué clientes responderán a una oferta de correo directo.

Data

Contamos con un conjunto de datos anonymized cse proporciona información del cliente. Cada entrada (fila) corresponde a un cliente. la variable de respuesta es binaria. Hay más de 140.000 entradas tanto en el conjunto de prueba como en el de entrenamiento.

Guia Proyecto

Procesamiento de la Data

En la carpeta de preprocesamiento, los datos de características se procesaron de manera diferente en función de los diferentes tipos de datos.

  1. Los datos numéricos se preprocesaron en data_preprocessing_SL_Feb2022_train_test_th60.ipynb. El procesamiento clave incluye imputación de valores perdidos, detección de valores atípicos, transformación logarítmica de columnas sesgadas a la derecha, estandarización de columnas numéricas, etc. Además de las columnas numéricas básicas, se derivaron 10 columnas numéricas. Las columnas categóricas con un número limitado de valores se transformaron utilizando DictVectorizer (codificación OneHot). Las columnas numéricas con muy pocos valores se separan de otras columnas numéricas, al igual que las columnas de series temporales.

  2. Los datos de series temporales se procesaron en data_preprocessing_SL_Feb2022_time_series_normalization.ipynb

  3. Las columnas categóricas con demasiados valores, así como las columnas numéricas con muy pocos valores, se procesaron en data_preprocessing_SL_Feb2022_cat_num_normalization.ipynb

  4. Todas las demás columnas categóricas se preprocesaron con la codificación OneHot en data_preprocessing_SL_Feb2022_th60_cat_label_encoding.ipynb

Caracteristicas de la seleccion

Estas Caracteristicas de Seleccion estan en la carpeta seleccion_característicascaracterísticas. Se escogieron multiples metodos, incluyendo RFECV, greedy forward selection, backward selection and the SelectKBest from sklearn. Entrada de los Modelos:

  1. Modelo Lineal (Logistic, SVM, Passive aggressive): numerical variables
  2. A´rbol de Busqueda (xgBoost, random forest, scikit learn gradient boosting): numerical + veriables categoricas

Optimizacion Modelos

Entrenamiento de Modelos gridsearchCV o el home-built método que genera predicción en el conjunto de prueba durante la validación cruzada, la predicción se puede usar más adelante como metacaracterísticas. La búsqueda en cuadrícula se realizó con diferentes algoritmos, como xgboost, random forest, online svm y regresión logística.

Prediccion Final

Las predicciones finales se realizan con modelos de nivel 0 y nivel 1 utilizando características básicas, características derivadas y metacaracterísticas, utilizando modelos que incluyen xgBoost, RandomForest, regresión logística SGD, máquinas de vectores de soporte SGD, clasificador pasivo-agresivo SDG.

Modelos

La idea es selecccionar el Modelo más optimo

A web porting for NVlabs' StyleGAN2, to facilitate exploring all kinds characteristic of StyleGAN networks

This project is a web porting for NVlabs' StyleGAN2, to facilitate exploring all kinds characteristic of StyleGAN networks. Thanks for NVlabs' excelle

K.L. 150 Dec 15, 2022
Flybirds - BDD-driven natural language automated testing framework, present by Trip Flight

Flybird | English Version 行为驱动开发(Behavior-driven development,缩写BDD),是一种软件过程的思想或者

Ctrip, Inc. 706 Dec 30, 2022
The PyTorch implementation of Directed Graph Contrastive Learning (DiGCL), NeurIPS-2021

Directed Graph Contrastive Learning Paper | Poster | Supplementary The PyTorch implementation of Directed Graph Contrastive Learning (DiGCL). In this

Tong Zekun 28 Jan 08, 2023
A fast implementation of bss_eval metrics for blind source separation

fast_bss_eval Do you have a zillion BSS audio files to process and it is taking days ? Is your simulation never ending ? Fear no more! fast_bss_eval i

Robin Scheibler 99 Dec 13, 2022
EFENet: Reference-based Video Super-Resolution with Enhanced Flow Estimation

EFENet EFENet: Reference-based Video Super-Resolution with Enhanced Flow Estimation Code is a bit messy now. I woud clean up soon. For training the EF

Yaping Zhao 19 Nov 05, 2022
Awesome Deep Graph Clustering is a collection of SOTA, novel deep graph clustering methods

ADGC: Awesome Deep Graph Clustering ADGC is a collection of state-of-the-art (SOTA), novel deep graph clustering methods (papers, codes and datasets).

yueliu1999 297 Dec 27, 2022
The code for our paper CrossFormer: A Versatile Vision Transformer Based on Cross-scale Attention.

CrossFormer This repository is the code for our paper CrossFormer: A Versatile Vision Transformer Based on Cross-scale Attention. Introduction Existin

cheerss 238 Jan 06, 2023
🐦 Quickly annotate data from the comfort of your Jupyter notebook

🐦 pigeon - Quickly annotate data on Jupyter Pigeon is a simple widget that lets you quickly annotate a dataset of unlabeled examples from the comfort

Anastasis Germanidis 647 Jan 05, 2023
Encoding Causal Macrovariables

Encoding Causal Macrovariables Data Natural climate data ('El Nino') Self-generated data ('Simulated') Experiments Detecting macrovariables through th

Benedikt Höltgen 3 Jul 31, 2022
StarGAN v2 - Official PyTorch Implementation (CVPR 2020)

StarGAN v2 - Official PyTorch Implementation StarGAN v2: Diverse Image Synthesis for Multiple Domains Yunjey Choi*, Youngjung Uh*, Jaejun Yoo*, Jung-W

Clova AI Research 3.1k Jan 09, 2023
Norm-based Analysis of Transformer

Norm-based Analysis of Transformer Implementations for 2 papers introducing to analyze Transformers using vector norms: Kobayashi+'20 Attention is Not

Goro Kobayashi 52 Dec 05, 2022
Finetune SSL models for MOS prediction

Finetune SSL models for MOS prediction This is code for our paper under review for ICASSP 2022: "Generalization Ability of MOS Prediction Networks" Er

Yamagishi and Echizen Laboratories, National Institute of Informatics 32 Nov 22, 2022
Implementation of the state-of-the-art vision transformers with tensorflow

ViT Tensorflow This repository contains the tensorflow implementation of the state-of-the-art vision transformers (a category of computer vision model

Mohammadmahdi NouriBorji 2 Mar 16, 2022
Synthesizing Long-Term 3D Human Motion and Interaction in 3D in CVPR2021

Long-term-Motion-in-3D-Scenes This is an implementation of the CVPR'21 paper "Synthesizing Long-Term 3D Human Motion and Interaction in 3D". Please ch

Jiashun Wang 76 Dec 13, 2022
A boosting-based Multiple Instance Learning (MIL) package that includes MIL-Boost and MCIL-Boost

A boosting-based Multiple Instance Learning (MIL) package that includes MIL-Boost and MCIL-Boost

Jun-Yan Zhu 27 Aug 08, 2022
Implementation of the 😇 Attention layer from the paper, Scaling Local Self-Attention For Parameter Efficient Visual Backbones

HaloNet - Pytorch Implementation of the Attention layer from the paper, Scaling Local Self-Attention For Parameter Efficient Visual Backbones. This re

Phil Wang 189 Nov 22, 2022
LegoDNN: a block-grained scaling tool for mobile vision systems

Table of contents 1 Introduction 1.1 Major features 1.2 Architecture 2 Code and Installation 2.1 Code 2.2 Installation 3 Repository of DNNs in vision

41 Dec 24, 2022
MVGCN: a novel multi-view graph convolutional network (MVGCN) framework for link prediction in biomedical bipartite networks.

MVGCN MVGCN: a novel multi-view graph convolutional network (MVGCN) framework for link prediction in biomedical bipartite networks. Developer: Fu Hait

13 Dec 01, 2022
Embodied Intelligence via Learning and Evolution

Embodied Intelligence via Learning and Evolution This is the code for the paper Embodied Intelligence via Learning and Evolution Agrim Gupta, Silvio S

Agrim Gupta 111 Dec 13, 2022
Simple transformer model for CIFAR10

CIFAR-Transformer Simple transformer model for CIFAR10. Reference: https://www.tensorflow.org/text/tutorials/transformer https://github.com/huggingfac

9 Nov 07, 2022