]> git.saurik.com Git - apple/xnu.git/blobdiff - bsd/kern/subr_prof.c
xnu-792.13.8.tar.gz
[apple/xnu.git] / bsd / kern / subr_prof.c
index 4b84e1430f4529f8fb543e94134b42cdf29e0573..49f50b5362fd563e2b7a63a72b6691cdb40dbef4 100644 (file)
@@ -1,26 +1,31 @@
 /*
- * Copyright (c) 2000 Apple Computer, Inc. All rights reserved.
+ * Copyright (c) 2000-2004 Apple Computer, Inc. All rights reserved.
  *
- * @APPLE_LICENSE_HEADER_START@
+ * @APPLE_LICENSE_OSREFERENCE_HEADER_START@
  * 
- * Copyright (c) 1999-2003 Apple Computer, Inc.  All Rights Reserved.
- * 
- * This file contains Original Code and/or Modifications of Original Code
- * as defined in and that are subject to the Apple Public Source License
- * Version 2.0 (the 'License'). You may not use this file except in
- * compliance with the License. Please obtain a copy of the License at
- * http://www.opensource.apple.com/apsl/ and read it before using this
+ * This file contains Original Code and/or Modifications of Original Code 
+ * as defined in and that are subject to the Apple Public Source License 
+ * Version 2.0 (the 'License'). You may not use this file except in 
+ * compliance with the License.  The rights granted to you under the 
+ * License may not be used to create, or enable the creation or 
+ * redistribution of, unlawful or unlicensed copies of an Apple operating 
+ * system, or to circumvent, violate, or enable the circumvention or 
+ * violation of, any terms of an Apple operating system software license 
+ * agreement.
+ *
+ * Please obtain a copy of the License at 
+ * http://www.opensource.apple.com/apsl/ and read it before using this 
  * file.
- * 
- * The Original Code and all software distributed under the License are
- * distributed on an 'AS IS' basis, WITHOUT WARRANTY OF ANY KIND, EITHER
- * EXPRESS OR IMPLIED, AND APPLE HEREBY DISCLAIMS ALL SUCH WARRANTIES,
- * INCLUDING WITHOUT LIMITATION, ANY WARRANTIES OF MERCHANTABILITY,
- * FITNESS FOR A PARTICULAR PURPOSE, QUIET ENJOYMENT OR NON-INFRINGEMENT.
- * Please see the License for the specific language governing rights and
+ *
+ * The Original Code and all software distributed under the License are 
+ * distributed on an 'AS IS' basis, WITHOUT WARRANTY OF ANY KIND, EITHER 
+ * EXPRESS OR IMPLIED, AND APPLE HEREBY DISCLAIMS ALL SUCH WARRANTIES, 
+ * INCLUDING WITHOUT LIMITATION, ANY WARRANTIES OF MERCHANTABILITY, 
+ * FITNESS FOR A PARTICULAR PURPOSE, QUIET ENJOYMENT OR NON-INFRINGEMENT. 
+ * Please see the License for the specific language governing rights and 
  * limitations under the License.
- * 
- * @APPLE_LICENSE_HEADER_END@
+ *
+ * @APPLE_LICENSE_OSREFERENCE_HEADER_END@
  */
 /* Copyright (c) 1995 NeXT Computer, Inc. All Rights Reserved */
 /*-
 #include <sys/param.h>
 #include <sys/systm.h>
 #include <sys/kernel.h>
-#include <sys/proc.h>
+#include <sys/proc_internal.h>
 #include <sys/user.h>
 #include <machine/spl.h>
+#include <machine/machine_routines.h>
 
-#include <sys/mount.h>
+#include <sys/mount_internal.h>
+#include <sys/sysproto.h>
 
+#include <mach/mach_types.h>
+#include <kern/kern_types.h>
 #include <kern/cpu_number.h>
+#include <kern/kalloc.h>
+
+extern boolean_t ml_set_interrupts_enabled(boolean_t enable);
 
 #ifdef GPROF
 #include <sys/malloc.h>
 #include <kern/mach_header.h>
 #include <machine/profile.h>
 
+lck_spin_t * mcount_lock;
+lck_grp_t * mcount_lock_grp;
+lck_attr_t * mcount_lock_attr;
+
 /*
  * Froms is actually a bunch of unsigned shorts indexing tos
  */
 struct gmonparam _gmonparam = { GMON_PROF_OFF };
 
-kmstartup()
+/*
+ * This code uses 32 bit mach object segment information from the currently
+ * running kernel.
+ */
+void
+kmstartup(void)
 {
        char *cp;
        u_long  fromssize, tossize;
-       struct segment_command          *sgp;
+       struct segment_command  *sgp;   /* 32 bit mach object file segment */
        struct gmonparam *p = &_gmonparam;
        
        sgp = getsegbyname("__TEXT");
@@ -121,19 +142,19 @@ kmstartup()
        p->kcount = (u_short *)cp;
        cp += p->kcountsize;
        p->froms = (u_short *)cp;
+       
+       mcount_lock_grp = lck_grp_alloc_init("MCOUNT", LCK_GRP_ATTR_NULL);
+       mcount_lock_attr = lck_attr_alloc_init();
+       mcount_lock = lck_spin_alloc_init(mcount_lock_grp, mcount_lock_attr);
+
 }
 
 /*
  * Return kernel profiling information.
  */
 int
-sysctl_doprof(name, namelen, oldp, oldlenp, newp, newlen)
-       int *name;
-       u_int namelen;
-       void *oldp;
-       size_t *oldlenp;
-       void *newp;
-       size_t newlen;
+sysctl_doprof(int *name, u_int namelen, user_addr_t oldp, size_t *oldlenp, 
+              user_addr_t newp, size_t newlen)
 {
        struct gmonparam *gp = &_gmonparam;
        int error;
@@ -153,18 +174,18 @@ sysctl_doprof(name, namelen, oldp, oldlenp, newp, newlen)
                        startprofclock(kernproc);
                return (0);
        case GPROF_COUNT:
-               return (sysctl_struct(oldp, oldlenp, newp, newlen,
-                   gp->kcount, gp->kcountsize));
+               return (sysctl_struct(oldp, oldlenp, newp, newlen, 
+                                     gp->kcount, gp->kcountsize));
        case GPROF_FROMS:
                return (sysctl_struct(oldp, oldlenp, newp, newlen,
-                   gp->froms, gp->fromssize));
+                                     gp->froms, gp->fromssize));
        case GPROF_TOS:
                return (sysctl_struct(oldp, oldlenp, newp, newlen,
-                   gp->tos, gp->tossize));
+                                     gp->tos, gp->tossize));
        case GPROF_GMONPARAM:
                return (sysctl_rdstruct(oldp, oldlenp, newp, gp, sizeof *gp));
        default:
-               return (EOPNOTSUPP);
+               return (ENOTSUP);
        }
        /* NOTREACHED */
 }
@@ -183,7 +204,6 @@ mcount(
        register struct tostruct *top, *prevtop;
        struct gmonparam *p = &_gmonparam;
        register long toindex;
-       MCOUNT_INIT;
 
     /*
      * check that we are profiling
@@ -192,7 +212,7 @@ mcount(
     if (p->state != GMON_PROF_ON)
         return;
 
-       MCOUNT_ENTER;
+       lck_spin_lock(mcount_lock);
 
        /*
         *      check that frompcindex is a reasonable pc value.
@@ -275,41 +295,26 @@ mcount(
 
        }
 done:
-       MCOUNT_EXIT;
+       lck_spin_unlock(mcount_lock);
        return;
 
 overflow:
     p->state = GMON_PROF_ERROR;
-       MCOUNT_EXIT;
+        lck_spin_unlock(mcount_lock);
        printf("mcount: tos overflow\n");
        return;
 }
 
 #endif /* GPROF */
 
-#if NCPUS > 1
-#define PROFILE_LOCK(x)                simple_lock(x)
-#define PROFILE_UNLOCK(x)      simple_unlock(x)
-#else
 #define PROFILE_LOCK(x)
 #define PROFILE_UNLOCK(x)
-#endif
-
-struct profil_args {
-       short   *bufbase;
-       u_int bufsize;
-       u_int pcoffset;
-       u_int pcscale;
-};
+
 int
-profil(p, uap, retval)
-       struct proc *p;
-       register struct profil_args *uap;
-       register_t *retval;
+profil(struct proc *p, register struct profil_args *uap, __unused register_t *retval)
 {
-       register struct uprof *upp = &p->p_stats->p_prof;
-       struct uprof *upc, *nupc;
-       int s;
+    struct uprof *upp = &p->p_stats->p_prof;
+    int s;
 
        if (uap->pcscale > (1 << 16))
                return (EINVAL);
@@ -319,54 +324,96 @@ profil(p, uap, retval)
        }
 
        /* Block profile interrupts while changing state. */
-       s = splstatclock();
-       PROFILE_LOCK(&upp->pr_lock);
-       upp->pr_base = (caddr_t)uap->bufbase;
-       upp->pr_size = uap->bufsize;
-       upp->pr_off = uap->pcoffset;
-       upp->pr_scale = uap->pcscale;
-
-       /* remove buffers previously allocated with add_profil() */
-       for (upc = upp->pr_next; upc; upc = nupc) {
-               nupc = upc->pr_next;
-               kfree(upc, sizeof (struct uprof));
+    s = ml_set_interrupts_enabled(FALSE);      
+
+       if (proc_is64bit(p)) {
+        struct user_uprof *user_upp = &p->p_stats->user_p_prof;
+       struct user_uprof *upc, *nupc;
+       
+           PROFILE_LOCK(&user_upp->pr_lock);
+        user_upp->pr_base = uap->bufbase;
+        user_upp->pr_size = uap->bufsize;
+        user_upp->pr_off = uap->pcoffset;
+           user_upp->pr_scale = uap->pcscale;
+        upp->pr_base = NULL;
+        upp->pr_size = 0;
+        upp->pr_scale = 0;
+
+        /* remove buffers previously allocated with add_profil() */
+        for (upc = user_upp->pr_next; upc; upc = nupc) {
+            nupc = upc->pr_next;
+            kfree(upc, sizeof (*upc));
+        }
+        user_upp->pr_next = 0;
+           PROFILE_UNLOCK(&user_upp->pr_lock);
+       }
+       else {
+       struct uprof *upc, *nupc;
+           
+           PROFILE_LOCK(&upp->pr_lock);
+        upp->pr_base = CAST_DOWN(caddr_t, uap->bufbase);
+        upp->pr_size = uap->bufsize;
+        upp->pr_off = uap->pcoffset;
+           upp->pr_scale = uap->pcscale;
+
+        /* remove buffers previously allocated with add_profil() */
+        for (upc = upp->pr_next; upc; upc = nupc) {
+            nupc = upc->pr_next;
+            kfree(upc, sizeof (struct uprof));
+        }
+        upp->pr_next = 0;
+           PROFILE_UNLOCK(&upp->pr_lock);
        }
 
-       upp->pr_next = 0;
-       PROFILE_UNLOCK(&upp->pr_lock);
        startprofclock(p);
-       splx(s);
+       ml_set_interrupts_enabled(s);
        return(0);
 }
 
-struct add_profile_args {
-       short   *bufbase;
-       u_int bufsize;
-       u_int pcoffset;
-       u_int pcscale;
-};
 int
-add_profil(p, uap, retval)
-       struct proc *p;
-       register struct add_profile_args *uap;
-       register_t *retval;
+add_profil(struct proc *p, register struct add_profil_args *uap, __unused register_t *retval)
 {
        struct uprof *upp = &p->p_stats->p_prof, *upc;
+       struct user_uprof *user_upp = NULL, *user_upc;
        int s;
+       boolean_t is64bit = proc_is64bit(p);
 
-       if (upp->pr_scale == 0)
-               return (0);
-       s = splstatclock();
-       upc = (struct uprof *) kalloc(sizeof (struct uprof));
-       upc->pr_base = (caddr_t)uap->bufbase;
-       upc->pr_size = uap->bufsize;
-       upc->pr_off = uap->pcoffset;
-       upc->pr_scale = uap->pcscale;
-       PROFILE_LOCK(&upp->pr_lock);
-       upc->pr_next = upp->pr_next;
-       upp->pr_next = upc;
-       PROFILE_UNLOCK(&upp->pr_lock);
-       splx(s);
+       if (is64bit) {
+       user_upp = &p->p_stats->user_p_prof;
+       if (user_upp->pr_scale == 0)
+            return (0);
+    }
+    else {
+        if (upp->pr_scale == 0)
+            return (0);
+    }
+
+    s = ml_set_interrupts_enabled(FALSE);      
+    
+       if (is64bit) {
+        user_upc = (struct user_uprof *) kalloc(sizeof (struct user_uprof));
+        user_upc->pr_base = uap->bufbase;
+        user_upc->pr_size = uap->bufsize;
+        user_upc->pr_off = uap->pcoffset;
+        user_upc->pr_scale = uap->pcscale;
+        PROFILE_LOCK(&user_upp->pr_lock);
+        user_upc->pr_next = user_upp->pr_next;
+        user_upp->pr_next = user_upc;
+        PROFILE_UNLOCK(&user_upp->pr_lock);
+    }
+    else {
+        upc = (struct uprof *) kalloc(sizeof (struct uprof));
+        upc->pr_base = CAST_DOWN(caddr_t, uap->bufbase);
+        upc->pr_size = uap->bufsize;
+        upc->pr_off = uap->pcoffset;
+        upc->pr_scale = uap->pcscale;
+        PROFILE_LOCK(&upp->pr_lock);
+        upc->pr_next = upp->pr_next;
+        upp->pr_next = upc;
+        PROFILE_UNLOCK(&upp->pr_lock);
+    }
+    
+       ml_set_interrupts_enabled(s);           
        return(0);
 }
 
@@ -396,11 +443,9 @@ add_profil(p, uap, retval)
 void
 addupc_task(p, pc, ticks)
        register struct proc *p;
-       register u_long pc;
+       user_addr_t pc;
        u_int ticks;
 {
-       register struct uprof *prof;
-       register short *cell;
        register u_int off;
        u_short count;
 
@@ -408,19 +453,44 @@ addupc_task(p, pc, ticks)
        if ((p->p_flag & P_PROFIL) == 0 || ticks == 0)
                return;
 
-       for (prof = &p->p_stats->p_prof; prof; prof = prof->pr_next) {
-               off = PC_TO_INDEX(pc,prof);
-               cell = (short *)(prof->pr_base + off);
-               if (cell >= (short *)prof->pr_base &&
-                       cell < (short*)(prof->pr_size + (int) prof->pr_base)) {
-                       if (copyin((caddr_t)cell, (caddr_t) &count, sizeof(count)) == 0) {
-                               count += ticks;
-                               if(copyout((caddr_t) &count, (caddr_t)cell, sizeof(count)) == 0)
-                                       return;
-                       }
-                       p->p_stats->p_prof.pr_scale = 0;
-                       stopprofclock(p);
-                       break;
-               }
+       if (proc_is64bit(p)) {
+        struct user_uprof *prof;
+        user_addr_t cell;
+
+        for (prof = &p->p_stats->user_p_prof; prof; prof = prof->pr_next) {
+            off = PC_TO_INDEX(pc, prof);
+            cell = (prof->pr_base + off);
+            if (cell >= prof->pr_base &&
+                cell < (prof->pr_size + prof->pr_base)) {
+                if (copyin(cell, (caddr_t) &count, sizeof(count)) == 0) {
+                    count += ticks;
+                    if(copyout((caddr_t) &count, cell, sizeof(count)) == 0)
+                        return;
+                }
+                p->p_stats->user_p_prof.pr_scale = 0;
+                stopprofclock(p);
+                break;
+            }
+        }
+       }
+       else {
+        struct uprof *prof;
+        short *cell;
+
+        for (prof = &p->p_stats->p_prof; prof; prof = prof->pr_next) {
+            off = PC_TO_INDEX(CAST_DOWN(uint, pc),prof);
+            cell = (short *)(prof->pr_base + off);
+            if (cell >= (short *)prof->pr_base &&
+                cell < (short*)(prof->pr_size + (int) prof->pr_base)) {
+                if (copyin(CAST_USER_ADDR_T(cell), (caddr_t) &count, sizeof(count)) == 0) {
+                    count += ticks;
+                    if(copyout((caddr_t) &count, CAST_USER_ADDR_T(cell), sizeof(count)) == 0)
+                        return;
+                }
+                p->p_stats->p_prof.pr_scale = 0;
+                stopprofclock(p);
+                break;
+            }
+        }
        }
 }