fix memory leaks on EMGLLF, test OK for EMGrank
[valse.git] / src / sources / constructionModelesLassoMLE.c
index 91119e9..ad2a718 100644 (file)
@@ -1,31 +1,31 @@
 #include "EMGLLF.h"
-#include "constructionModelesLassoMLE.h"
+#include "utils.h"
+#include <stdlib.h>
 #include <gsl/gsl_linalg.h>
 #include <omp.h>
-#include "omp_num_threads.h"
 
 // TODO: comment on constructionModelesLassoMLE purpose
-void constructionModelesLassoMLE(
+void constructionModelesLassoMLE_core(
        // IN parameters
-       const double* phiInit, // parametre initial de moyenne renormalisé
-       const double* rhoInit, // parametre initial de variance renormalisé
-       const double* piInit,// parametre initial des proportions
-       const double* gamInit, // paramètre initial des probabilités a posteriori de chaque échantillon
+       const Real* phiInit, // parametre initial de moyenne renormalisé
+       const Real* rhoInit, // parametre initial de variance renormalisé
+       const Real* piInit,// parametre initial des proportions
+       const Real* gamInit, // paramètre initial des probabilités a posteriori de chaque échantillon
        int mini,// nombre minimal d'itérations dans l'algorithme EM
        int maxi,// nombre maximal d'itérations dans l'algorithme EM
-       double gamma,// valeur de gamma : puissance des proportions dans la pénalisation pour un Lasso adaptatif
-       const double* glambda, // valeur des paramètres de régularisation du Lasso
-       const double* X, // régresseurs
-       const double* Y, // réponse
-       double seuil,// seuil pour prendre en compte une variable
-       double tau,// seuil pour accepter la convergence
+       Real gamma,// valeur de gamma : puissance des proportions dans la pénalisation pour un Lasso adaptatif
+       const Real* glambda, // valeur des paramètres de régularisation du Lasso
+       const Real* X, // régresseurs
+       const Real* Y, // réponse
+       Real seuil,// seuil pour prendre en compte une variable
+       Real tau,// seuil pour accepter la convergence
        const int* A1, // matrice des coefficients des parametres selectionnes
        const int* A2, // matrice des coefficients des parametres non selectionnes
        // OUT parameters
-       double* phi,// estimateur ainsi calculé par le Lasso
-       double* rho,// estimateur ainsi calculé par le Lasso
-       double* pi, // estimateur ainsi calculé par le Lasso
-       double* lvraisemblance, // estimateur ainsi calculé par le Lasso
+       Real* phi,// estimateur ainsi calculé par le Lasso
+       Real* rho,// estimateur ainsi calculé par le Lasso
+       Real* pi, // estimateur ainsi calculé par le Lasso
+       Real* llh, // estimateur ainsi calculé par le Lasso
        // additional size parameters
        int n, // taille de l'echantillon
        int p, // nombre de covariables
@@ -58,7 +58,7 @@ void constructionModelesLassoMLE(
                        continue;
 
                //Xa = X(:,a)
-               double* Xa = (double*)malloc(n*lengthA*sizeof(double));
+               Real* Xa = (Real*)malloc(n*lengthA*sizeof(Real));
                for (int i=0; i<n; i++)
                {
                        for (int j=0; j<lengthA; j++)
@@ -66,7 +66,7 @@ void constructionModelesLassoMLE(
                }
 
                //phia = phiInit(a,:,:)
-               double* phia = (double*)malloc(lengthA*m*k*sizeof(double));
+               Real* phia = (Real*)malloc(lengthA*m*k*sizeof(Real));
                for (int j=0; j<lengthA; j++)
                {
                        for (int mm=0; mm<m; mm++)
@@ -78,12 +78,12 @@ void constructionModelesLassoMLE(
 
                //[phiLambda,rhoLambda,piLambda,~,~] = EMGLLF(...
                //      phiInit(a,:,:),rhoInit,piInit,gamInit,mini,maxi,gamma,0,X(:,a),Y,tau);
-               double* phiLambda = (double*)malloc(lengthA*m*k*sizeof(double));
-               double* rhoLambda = (double*)malloc(m*m*k*sizeof(double));
-               double* piLambda = (double*)malloc(k*sizeof(double));
-               double* LLF = (double*)malloc((maxi+1)*sizeof(double));
-               double* S = (double*)malloc(lengthA*m*k*sizeof(double));
-               EMGLLF(phia,rhoInit,piInit,gamInit,mini,maxi,gamma,0.0,Xa,Y,tau,
+               Real* phiLambda = (Real*)malloc(lengthA*m*k*sizeof(Real));
+               Real* rhoLambda = (Real*)malloc(m*m*k*sizeof(Real));
+               Real* piLambda = (Real*)malloc(k*sizeof(Real));
+               Real* LLF = (Real*)malloc((maxi+1)*sizeof(Real));
+               Real* S = (Real*)malloc(lengthA*m*k*sizeof(Real));
+               EMGLLF_core(phia,rhoInit,piInit,gamInit,mini,maxi,gamma,0.0,Xa,Y,tau,
                        phiLambda,rhoLambda,piLambda,LLF,S,
                        n,lengthA,m,k);
                free(Xa);
@@ -138,7 +138,7 @@ void constructionModelesLassoMLE(
                                for (int mm=0; mm<lengthB; mm++)
                                {
                                        for (int r=0; r<k; r++)
-                                               phi[ai( A2[ai4(j,0,lambdaIndex,p,m+1,L)]-1, b[mm], r, lambdaIndex, p, m, k, L)] = 0.0;
+                                               phi[ai4( A2[ai(j,0,lambdaIndex,p,m+1,L)]-1, b[mm], r, lambdaIndex, p, m, k, L)] = 0.;
                                }
                        }
 
@@ -154,12 +154,12 @@ void constructionModelesLassoMLE(
                free(b);
 
                int signum;
-               double* densite = (double*)calloc(L*n,sizeof(double));
-               double sumLogDensit = 0.0;
+               Real* densite = (Real*)calloc(L*n,sizeof(Real));
+               Real sumLogDensit = 0.0;
                gsl_matrix* matrix = gsl_matrix_alloc(m, m);
                gsl_permutation* permutation = gsl_permutation_alloc(m);
-               double* YiRhoR = (double*)malloc(m*sizeof(double));
-               double* XiPhiR = (double*)malloc(m*sizeof(double));
+               Real* YiRhoR = (Real*)malloc(m*sizeof(Real));
+               Real* XiPhiR = (Real*)malloc(m*sizeof(Real));
                for (int i=0; i<n; i++)
                {
                        //~ for r=1:k
@@ -176,7 +176,7 @@ void constructionModelesLassoMLE(
                                                matrix->data[u*m+v] = rho[ai4(u,v,r,lambdaIndex,m,m,k,L)];
                                }
                                gsl_linalg_LU_decomp(matrix, permutation, &signum);
-                               double detRhoR = gsl_linalg_LU_det(matrix, signum);
+                               Real detRhoR = gsl_linalg_LU_det(matrix, signum);
 
                                //compute Y(i,:)*rho(:,:,r,lambdaIndex)
                                for (int u=0; u<m; u++)
@@ -196,7 +196,7 @@ void constructionModelesLassoMLE(
                                // On peut remplacer X par Xa dans ce dernier calcul, mais je ne sais pas si c'est intéressant ...
 
                                // compute dotProduct < delta . delta >
-                               double dotProduct = 0.0;
+                               Real dotProduct = 0.0;
                                for (int u=0; u<m; u++)
                                        dotProduct += (YiRhoR[u]-XiPhiR[u]) * (YiRhoR[u]-XiPhiR[u]);
 
@@ -204,8 +204,8 @@ void constructionModelesLassoMLE(
                        }
                        sumLogDensit += log(densite[lambdaIndex*n+i]);
                }
-               lvraisemblance[mi(lambdaIndex,0,L,2)] = sumLogDensit;
-               lvraisemblance[mi(lambdaIndex,1,L,2)] = (dimension+m+1)*k-1;
+               llh[mi(lambdaIndex,0,L,2)] = sumLogDensit;
+               llh[mi(lambdaIndex,1,L,2)] = (dimension+m+1)*k-1;
 
                free(a);
                free(YiRhoR);