// TODO: comment on constructionModelesLassoMLE purpose
void constructionModelesLassoMLE(
- // IN parameters
- const Real* phiInit, // parametre initial de moyenne renormalisé
- const Real* rhoInit, // parametre initial de variance renormalisé
- const Real* piInit, // parametre initial des proportions
- const Real* gamInit, // paramètre initial des probabilités a posteriori de chaque échantillon
- Int mini, // nombre minimal d'itérations dans l'algorithme EM
- Int maxi, // nombre maximal d'itérations dans l'algorithme EM
- Real gamma, // valeur de gamma : puissance des proportions dans la pénalisation pour un Lasso adaptatif
- const Real* glambda, // valeur des paramètres de régularisation du Lasso
- const Real* X, // régresseurs
- const Real* Y, // réponse
- Real seuil, // seuil pour prendre en compte une variable
- Real tau, // seuil pour accepter la convergence
- const Int* A1, // matrice des coefficients des parametres selectionnes
- const Int* A2, // matrice des coefficients des parametres non selectionnes
+ // IN parameters
+ const double* phiInit, // parametre initial de moyenne renormalisé
+ const double* rhoInit, // parametre initial de variance renormalisé
+ const double* piInit,// parametre initial des proportions
+ const double* gamInit, // paramètre initial des probabilités a posteriori de chaque échantillon
+ int mini,// nombre minimal d'itérations dans l'algorithme EM
+ int maxi,// nombre maximal d'itérations dans l'algorithme EM
+ double gamma,// valeur de gamma : puissance des proportions dans la pénalisation pour un Lasso adaptatif
+ const double* glambda, // valeur des paramètres de régularisation du Lasso
+ const double* X, // régresseurs
+ const double* Y, // réponse
+ double seuil,// seuil pour prendre en compte une variable
+ double tau,// seuil pour accepter la convergence
+ const int* A1, // matrice des coefficients des parametres selectionnes
+ const int* A2, // matrice des coefficients des parametres non selectionnes
// OUT parameters
- Real* phi, // estimateur ainsi calculé par le Lasso
- Real* rho, // estimateur ainsi calculé par le Lasso
- Real* pi, // estimateur ainsi calculé par le Lasso
- Real* lvraisemblance, // estimateur ainsi calculé par le Lasso
+ double* phi,// estimateur ainsi calculé par le Lasso
+ double* rho,// estimateur ainsi calculé par le Lasso
+ double* pi, // estimateur ainsi calculé par le Lasso
+ double* lvraisemblance, // estimateur ainsi calculé par le Lasso
// additional size parameters
- mwSize n, // taille de l'echantillon
- mwSize p, // nombre de covariables
- mwSize m, // taille de Y (multivarié)
- mwSize k, // nombre de composantes
- mwSize L) // taille de glambda
+ int n, // taille de l'echantillon
+ int p, // nombre de covariables
+ int m, // taille de Y (multivarié)
+ int k, // nombre de composantes
+ int L) // taille de glambda
{
//preparation: phi = 0
- for (mwSize u=0; u<p*m*k*L; u++)
+ for (int u=0; u<p*m*k*L; u++)
phi[u] = 0.0;
-
+
//initiate parallel section
- mwSize lambdaIndex;
+ int lambdaIndex;
omp_set_num_threads(OMP_NUM_THREADS);
#pragma omp parallel default(shared) private(lambdaIndex)
{
{
//~ a = A1(:,1,lambdaIndex);
//~ a(a==0) = [];
- Int* a = (Int*)malloc(p*sizeof(Int));
- mwSize lengthA = 0;
- for (mwSize j=0; j<p; j++)
+ int* a = (int*)malloc(p*sizeof(int));
+ int lengthA = 0;
+ for (int j=0; j<p; j++)
{
- if (A1[j*(m+1)*L+0*L+lambdaIndex] != 0)
- a[lengthA++] = A1[j*(m+1)*L+0*L+lambdaIndex] - 1;
+ if (A1[ai(j,0,lambdaIndex,p,m+1,L)] != 0)
+ a[lengthA++] = A1[ai(j,0,lambdaIndex,p,m+1,L)] - 1;
}
if (lengthA == 0)
continue;
-
+
//Xa = X(:,a)
- Real* Xa = (Real*)malloc(n*lengthA*sizeof(Real));
- for (mwSize i=0; i<n; i++)
+ double* Xa = (double*)malloc(n*lengthA*sizeof(double));
+ for (int i=0; i<n; i++)
{
- for (mwSize j=0; j<lengthA; j++)
- Xa[i*lengthA+j] = X[i*p+a[j]];
+ for (int j=0; j<lengthA; j++)
+ Xa[mi(i,j,n,lengthA)] = X[mi(i,a[j],n,p)];
}
-
+
//phia = phiInit(a,:,:)
- Real* phia = (Real*)malloc(lengthA*m*k*sizeof(Real));
- for (mwSize j=0; j<lengthA; j++)
+ double* phia = (double*)malloc(lengthA*m*k*sizeof(double));
+ for (int j=0; j<lengthA; j++)
{
- for (mwSize mm=0; mm<m; mm++)
+ for (int mm=0; mm<m; mm++)
{
- for (mwSize r=0; r<k; r++)
- phia[j*m*k+mm*k+r] = phiInit[a[j]*m*k+mm*k+r];
+ for (int r=0; r<k; r++)
+ phia[ai(j,mm,r,lengthA,m,k)] = phiInit[ai(a[j],mm,r,p,m,k)];
}
}
-
+
//[phiLambda,rhoLambda,piLambda,~,~] = EMGLLF(...
// phiInit(a,:,:),rhoInit,piInit,gamInit,mini,maxi,gamma,0,X(:,a),Y,tau);
- Real* phiLambda = (Real*)malloc(lengthA*m*k*sizeof(Real));
- Real* rhoLambda = (Real*)malloc(m*m*k*sizeof(Real));
- Real* piLambda = (Real*)malloc(k*sizeof(Real));
- Real* LLF = (Real*)malloc((maxi+1)*sizeof(Real));
- Real* S = (Real*)malloc(lengthA*m*k*sizeof(Real));
+ double* phiLambda = (double*)malloc(lengthA*m*k*sizeof(double));
+ double* rhoLambda = (double*)malloc(m*m*k*sizeof(double));
+ double* piLambda = (double*)malloc(k*sizeof(double));
+ double* LLF = (double*)malloc((maxi+1)*sizeof(double));
+ double* S = (double*)malloc(lengthA*m*k*sizeof(double));
EMGLLF(phia,rhoInit,piInit,gamInit,mini,maxi,gamma,0.0,Xa,Y,tau,
phiLambda,rhoLambda,piLambda,LLF,S,
n,lengthA,m,k);
free(phia);
free(LLF);
free(S);
-
+
//~ for j=1:length(a)
//~ phi(a(j),:,:,lambdaIndex) = phiLambda(j,:,:);
//~ end
- for (mwSize j=0; j<lengthA; j++)
+ for (int j=0; j<lengthA; j++)
{
- for (mwSize mm=0; mm<m; mm++)
+ for (int mm=0; mm<m; mm++)
{
- for (mwSize r=0; r<k; r++)
- phi[a[j]*m*k*L+mm*k*L+r*L+lambdaIndex] = phiLambda[j*m*k+mm*k+r];
+ for (int r=0; r<k; r++)
+ phi[ai4(a[j],mm,r,lambdaIndex,p,m,k,L)] = phiLambda[ai(j,mm,r,p,m,k)];
}
}
free(phiLambda);
//~ rho(:,:,:,lambdaIndex) = rhoLambda;
- for (mwSize u=0; u<m; u++)
+ for (int u=0; u<m; u++)
{
- for (mwSize v=0; v<m; v++)
+ for (int v=0; v<m; v++)
{
- for (mwSize r=0; r<k; r++)
- rho[u*m*k*L+v*k*L+r*L+lambdaIndex] = rhoLambda[u*m*k+v*k+r];
+ for (int r=0; r<k; r++)
+ rho[ai4(u,v,r,lambdaIndex,m,m,k,L)] = rhoLambda[ai(u,v,r,m,m,k)];
}
}
free(rhoLambda);
//~ pi(:,lambdaIndex) = piLambda;
- for (mwSize r=0; r<k; r++)
- pi[r*L+lambdaIndex] = piLambda[r];
+ for (int r=0; r<k; r++)
+ pi[mi(r,lambdaIndex,k,L)] = piLambda[r];
free(piLambda);
-
- mwSize dimension = 0;
- Int* b = (Int*)malloc(m*sizeof(Int));
- for (mwSize j=0; j<p; j++)
+
+ int dimension = 0;
+ int* b = (int*)malloc(m*sizeof(int));
+ for (int j=0; j<p; j++)
{
//~ b = A2(j,2:end,lambdaIndex);
//~ b(b==0) = [];
- mwSize lengthB = 0;
- for (mwSize mm=0; mm<m; mm++)
+ int lengthB = 0;
+ for (int mm=0; mm<m; mm++)
{
- if (A2[j*(m+1)*L+(mm+1)*L+lambdaIndex] != 0)
- b[lengthB++] = A2[j*(m+1)*L+(mm+1)*L+lambdaIndex] - 1;
+ if (A2[ai(j,mm+1,lambdaIndex,p,m+1,L)] != 0)
+ b[lengthB++] = A2[ai(j,mm+1,lambdaIndex,p,m+1,L)] - 1;
}
//~ if length(b) > 0
//~ phi(A2(j,1,lambdaIndex),b,:,lambdaIndex) = 0.0;
//~ end
if (lengthB > 0)
{
- for (mwSize mm=0; mm<lengthB; mm++)
+ for (int mm=0; mm<lengthB; mm++)
{
- for (mwSize r=0; r<k; r++)
- phi[(A2[j*(m+1)*L+0*L+lambdaIndex]-1)*m*k*L + b[mm]*k*L + r*L + lambdaIndex] = 0.0;
+ for (int r=0; r<k; r++)
+ phi[ai( A2[ai4(j,0,lambdaIndex,p,m+1,L)]-1, b[mm], r, lambdaIndex, p, m, k, L)] = 0.0;
}
}
-
+
//~ c = A1(j,2:end,lambdaIndex);
//~ c(c==0) = [];
//~ dimension = dimension + length(c);
- for (mwSize mm=0; mm<m; mm++)
+ for (int mm=0; mm<m; mm++)
{
- if (A1[j*(m+1)*L+(mm+1)*L+lambdaIndex] != 0)
+ if (A1[ai(j,mm+1,lambdaIndex,p,m+1,L)] != 0)
dimension++;
}
}
free(b);
-
+
int signum;
- Real* densite = (Real*)calloc(L*n,sizeof(Real));
- Real sumLogDensit = 0.0;
+ double* densite = (double*)calloc(L*n,sizeof(double));
+ double sumLogDensit = 0.0;
gsl_matrix* matrix = gsl_matrix_alloc(m, m);
gsl_permutation* permutation = gsl_permutation_alloc(m);
- Real* YiRhoR = (Real*)malloc(m*sizeof(Real));
- Real* XiPhiR = (Real*)malloc(m*sizeof(Real));
- for (mwSize i=0; i<n; i++)
+ double* YiRhoR = (double*)malloc(m*sizeof(double));
+ double* XiPhiR = (double*)malloc(m*sizeof(double));
+ for (int i=0; i<n; i++)
{
//~ for r=1:k
//~ delta = Y(i,:)*rho(:,:,r,lambdaIndex) - (X(i,a)*(phi(a,:,r,lambdaIndex)));
//~ densite(i,lambdaIndex) = densite(i,lambdaIndex) +...
//~ pi(r,lambdaIndex)*det(rho(:,:,r,lambdaIndex))/(sqrt(2*PI))^m*exp(-dot(delta,delta)/2.0);
//~ end
- for (mwSize r=0; r<k; r++)
+ for (int r=0; r<k; r++)
{
//compute det(rho(:,:,r,lambdaIndex)) [TODO: avoid re-computations]
- for (mwSize u=0; u<m; u++)
+ for (int u=0; u<m; u++)
{
- for (mwSize v=0; v<m; v++)
- matrix->data[u*m+v] = rho[u*m*k*L+v*k*L+r*L+lambdaIndex];
+ for (int v=0; v<m; v++)
+ matrix->data[u*m+v] = rho[ai4(u,v,r,lambdaIndex,m,m,k,L)];
}
gsl_linalg_LU_decomp(matrix, permutation, &signum);
- Real detRhoR = gsl_linalg_LU_det(matrix, signum);
-
+ double detRhoR = gsl_linalg_LU_det(matrix, signum);
+
//compute Y(i,:)*rho(:,:,r,lambdaIndex)
- for (mwSize u=0; u<m; u++)
+ for (int u=0; u<m; u++)
{
YiRhoR[u] = 0.0;
- for (mwSize v=0; v<m; v++)
- YiRhoR[u] += Y[i*m+v] * rho[v*m*k*L+u*k*L+r*L+lambdaIndex];
+ for (int v=0; v<m; v++)
+ YiRhoR[u] += Y[mi(i,v,n,m)] * rho[ai4(v,u,r,lambdaIndex,m,m,k,L)];
}
-
+
//compute X(i,a)*phi(a,:,r,lambdaIndex)
- for (mwSize u=0; u<m; u++)
+ for (int u=0; u<m; u++)
{
XiPhiR[u] = 0.0;
- for (mwSize v=0; v<lengthA; v++)
- XiPhiR[u] += X[i*p+a[v]] * phi[a[v]*m*k*L+u*k*L+r*L+lambdaIndex];
+ for (int v=0; v<lengthA; v++)
+ XiPhiR[u] += X[mi(i,a[v],n,p)] * phi[ai4(a[v],u,r,lambdaIndex,p,m,k,L)];
}
- // On peut remplacer X par Xa dans ce dernier calcul, mais je ne sais pas si c'est intéressant ...
-
+ // On peut remplacer X par Xa dans ce dernier calcul, mais je ne sais pas si c'est intéressant ...
+
// compute dotProduct < delta . delta >
- Real dotProduct = 0.0;
- for (mwSize u=0; u<m; u++)
+ double dotProduct = 0.0;
+ for (int u=0; u<m; u++)
dotProduct += (YiRhoR[u]-XiPhiR[u]) * (YiRhoR[u]-XiPhiR[u]);
-
- densite[lambdaIndex*n+i] += (pi[r*L+lambdaIndex]*detRhoR/pow(sqrt(2.0*M_PI),m))*exp(-dotProduct/2.0);
- }
+
+ densite[mi(lambdaIndex,i,L,n)] += (pi[mi(r,lambdaIndex,k,L)]*detRhoR/pow(sqrt(2.0*M_PI),m))*exp(-dotProduct/2.0);
+ }
sumLogDensit += log(densite[lambdaIndex*n+i]);
}
- lvraisemblance[lambdaIndex*2+0] = sumLogDensit;
- lvraisemblance[lambdaIndex*2+1] = (dimension+m+1)*k-1;
-
+ lvraisemblance[mi(lambdaIndex,0,L,2)] = sumLogDensit;
+ lvraisemblance[mi(lambdaIndex,1,L,2)] = (dimension+m+1)*k-1;
+
free(a);
free(YiRhoR);
free(XiPhiR);
// TODO: comment on constructionModelesLassoRank purpose
void constructionModelesLassoRank(
- // IN parameters
- const Real* Pi, // parametre initial des proportions
- const Real* Rho, // parametre initial de variance renormalisé
- Int mini, // nombre minimal d'itérations dans l'algorithme EM
- Int maxi, // nombre maximal d'itérations dans l'algorithme EM
- const Real* X, // régresseurs
- const Real* Y, // réponse
- Real tau, // seuil pour accepter la convergence
- const Int* A1, // matrice des coefficients des parametres selectionnes
- Int rangmin, //rang minimum autorisé
- Int rangmax, //rang maximum autorisé
+ // IN parameters
+ const double* Pi,// parametre initial des proportions
+ const double* Rho, // parametre initial de variance renormalisé
+ int mini, // nombre minimal d'itérations dans l'algorithme EM
+ int maxi, // nombre maximal d'itérations dans l'algorithme EM
+ const double* X,// régresseurs
+ const double* Y,// réponse
+ double tau, // seuil pour accepter la convergence
+ const int* A1, // matrice des coefficients des parametres selectionnes
+ int rangmin, //rang minimum autorisé
+ int rangmax, //rang maximum autorisé
// OUT parameters (all pointers, to be modified)
- Real* phi, // estimateur ainsi calculé par le Lasso
- Real* lvraisemblance, // estimateur ainsi calculé par le Lasso
- // additional size parameters
- mwSize n, // taille de l'echantillon
- mwSize p, // nombre de covariables
- mwSize m, // taille de Y (multivarié)
- mwSize k, // nombre de composantes
- mwSize L) // taille de glambda
+ double* phi,// estimateur ainsi calculé par le Lasso
+ double* lvraisemblance,// estimateur ainsi calculé par le Lasso
+ // additional size parameters
+ int n,// taille de l'echantillon
+ int p,// nombre de covariables
+ int m,// taille de Y (multivarié)
+ int k,// nombre de composantes
+ int L)// taille de glambda
{
//On cherche les rangs possiblement intéressants
- Int deltaRank = rangmax-rangmin+1;
- mwSize Size = (mwSize)pow(deltaRank,k);
- Int* Rank = (Int*)malloc(Size*k*sizeof(Int));
- for (mwSize r=0; r<k; r++)
- {
+ int deltaRank = rangmax-rangmin+1;
+ int Size = (int)pow(deltaRank,k);
+ int* Rank = (int*)malloc(Size*k*sizeof(int));
+for (int r=0; r<k; r++)
+{
//On veut le tableau de toutes les combinaisons de rangs possibles
//Dans la première colonne : on répète (rangmax-rangmin)^(k-1) chaque chiffre : ca remplit la colonne
//Dans la deuxieme : on répète (rangmax-rangmin)^(k-2) chaque chiffre, et on fait ca (rangmax-rangmin)^2 fois
//...
//Dans la dernière, on répète chaque chiffre une fois, et on fait ca (rangmin-rangmax)^(k-1) fois.
- Int indexInRank = 0;
- Int value = 0;
+ int indexInRank = 0;
+ int value = 0;
while (indexInRank < Size)
{
- for (Int u=0; u<pow(deltaRank,k-r-1); u++)
- Rank[(indexInRank++)*k+r] = rangmin + value;
+ for (int u=0; u<pow(deltaRank,k-r-1); u++)
+ Rank[mi(indexInRank++,r,Size,k)] = rangmin + value;
value = (value+1) % deltaRank;
}
}
-
+
//Initialize phi to zero, because unactive variables won't be assigned
- for (mwSize i=0; i<p*m*k*L*Size; i++)
+ for (int i=0; i<p*m*k*L*Size; i++)
phi[i] = 0.0;
-
+
//initiate parallel section
- mwSize lambdaIndex;
+ int lambdaIndex;
omp_set_num_threads(OMP_NUM_THREADS);
#pragma omp parallel default(shared) private(lambdaIndex)
{
for (lambdaIndex=0; lambdaIndex<L; lambdaIndex++)
{
//On ne garde que les colonnes actives : active sera l'ensemble des variables informatives
- Int* active = (Int*)malloc(p*sizeof(Int));
- mwSize longueurActive = 0;
- for (Int j=0; j<p; j++)
+ int* active = (int*)malloc(p*sizeof(int));
+ int longueurActive = 0;
+ for (int j=0; j<p; j++)
{
- if (A1[j*L+lambdaIndex] != 0)
- active[longueurActive++] = A1[j*L+lambdaIndex] - 1;
+ if (A1[mi(j,lambdaIndex,p,L)] != 0)
+ active[longueurActive++] = A1[mi(j,lambdaIndex,p,L)] - 1;
}
-
+
if (longueurActive == 0)
continue;
-
+
//from now on, longueurActive > 0
- Real* phiLambda = (Real*)malloc(longueurActive*m*k*sizeof(Real));
- Real LLF;
- for (Int j=0; j<Size; j++)
+ double* phiLambda = (double*)malloc(longueurActive*m*k*sizeof(double));
+ double LLF;
+ for (int j=0; j<Size; j++)
{
//[phiLambda,LLF] = EMGrank(Pi(:,lambdaIndex),Rho(:,:,:,lambdaIndex),mini,maxi,X(:,active),Y,tau,Rank(j,:));
- Int* rank = (Int*)malloc(k*sizeof(Int));
- for (mwSize r=0; r<k; r++)
- rank[r] = Rank[j*k+r];
- Real* Xactive = (Real*)malloc(n*longueurActive*sizeof(Real));
- for (mwSize i=0; i<n; i++)
+ int* rank = (int*)malloc(k*sizeof(int));
+ for (int r=0; r<k; r++)
+ rank[r] = Rank[mi(j,r,Size,k)];
+ double* Xactive = (double*)malloc(n*longueurActive*sizeof(double));
+ for (int i=0; i<n; i++)
{
- for (mwSize jj=0; jj<longueurActive; jj++)
- Xactive[i*longueurActive+jj] = X[i*p+active[jj]];
+ for (int jj=0; jj<longueurActive; jj++)
+ Xactive[mi(i,jj,n,longueurActive)] = X[mi(i,active[jj],n,p)];
}
- Real* PiLambda = (Real*)malloc(k*sizeof(Real));
- for (mwSize r=0; r<k; r++)
- PiLambda[r] = Pi[r*L+lambdaIndex];
- Real* RhoLambda = (Real*)malloc(m*m*k*sizeof(Real));
- for (mwSize u=0; u<m; u++)
+ double* PiLambda = (double*)malloc(k*sizeof(double));
+ for (int r=0; r<k; r++)
+ PiLambda[r] = Pi[mi(r,lambdaIndex,k,L)];
+ double* RhoLambda = (double*)malloc(m*m*k*sizeof(double));
+ for (int u=0; u<m; u++)
{
- for (mwSize v=0; v<m; v++)
+ for (int v=0; v<m; v++)
{
- for (mwSize r=0; r<k; r++)
- RhoLambda[u*m*k+v*k+r] = Rho[u*m*k*L+v*k*L+r*L+lambdaIndex];
+ for (int r=0; r<k; r++)
+ RhoLambda[ai(uu,v,r,m,m,k)] = Rho[ai4(u,v,r,lambdaIndex,m,m,k,L)];
}
}
EMGrank(PiLambda,RhoLambda,mini,maxi,Xactive,Y,tau,rank,
free(PiLambda);
free(RhoLambda);
//lvraisemblance((lambdaIndex-1)*Size+j,:) = [LLF, dot(Rank(j,:), length(active)-Rank(j,:)+m)];
- lvraisemblance[(lambdaIndex*Size+j)*2] = LLF;
+ lvraisemblance[mi(lambdaIndex*Size+j,0,L*Size,2)] = LLF;
//dot(Rank(j,:), length(active)-Rank(j,:)+m)
- Real dotProduct = 0.0;
- for (mwSize r=0; r<k; r++)
- dotProduct += Rank[j*k+r] * (longueurActive-Rank[j*k+r]+m);
- lvraisemblance[(lambdaIndex*Size+j)*2+1] = dotProduct;
+ double dotProduct = 0.0;
+ for (int r=0; r<k; r++)
+ dotProduct += Rank[mi(j,r,Size,k)] * (longueurActive-Rank[mi(j,r,Size,k)]+m);
+ lvraisemblance[mi(lambdaIndex*Size+j,1,Size*L,2)] = dotProduct;
//phi(active,:,:,(lambdaIndex-1)*Size+j) = phiLambda;
- for (mwSize jj=0; jj<longueurActive; jj++)
+ for (int jj=0; jj<longueurActive; jj++)
{
- for (mwSize mm=0; mm<m; mm++)
+ for (int mm=0; mm<m; mm++)
{
- for (mwSize r=0; r<k; r++)
- phi[active[jj]*m*k*L*Size+mm*k*L*Size+r*L*Size+(lambdaIndex*Size+j)] = phiLambda[jj*m*k+mm*k+r];
+ for (int r=0; r<k; r++)
+ phi[ai5(active[jj],mm,r,lambdaIndex,j,p,m,k,L,Size)] = phiLambda[jj*m*k+mm*k+r];
}
}
}